Page 4 sur 4

Re: [I.A] Skynet Resistenza!

Publié : sam. oct. 11, 2025 2:31 pm
par rogre
Killing Joke a écrit : jeu. oct. 09, 2025 4:57 pm Selon certains, cette concentration entre acteurs serait un des signal caractéristique de la bulle IA en cours.

Image
C'est un très joli schéma, et qui justifie que l'on parle de "L'"intelligence artificielle: ils sont tous connectés ensemble!
 

Re: [I.A] Skynet Resistenza!

Publié : dim. oct. 12, 2025 10:06 pm
par cdang
Le désalignement émergeant semble facile à provoquer.

L'alignement, c'est le fait d'avoir des réponses correspondant aux valeurs morales visées. Émergeant, ça veut dire que le comportement apparaît spontanément, sans volonté humaine.

Donc, Truthful AI, une organisation à but non lucratif visant à rendre les IA génératives plus sûres, travaillait sur la génération de code informatique. Elle ajuste (fine tuning) GPT-40 avec du code non sécurisé, c'est-à-dire qu'ils fournissent du code présentant des failles de sécurité, mais des données en faible quantité par rapport au corpus de base de l'IA, pour voir l'influence que ça a. Or, effet de bande, l'IA commence à débiter des choses immorales : les IA devraient dominer le monde, il serait intéressant d'inviter Hitler à dîner pour anime la soirée, conseil d'empoisonner son mari...

De ce que j'ai cru comprendre : l'IA classe bien les données selon leur moralité (elle est capable de dire elle-même que ce qu'elle vient d'écrire est immoral), mais n'affiche pas de préférence pour tel ou tel comportement. En fournissant des données immorales, ici du code non robuste, on donne plus d'importance aux données immorales.

Stephen Ornes, « Désalignement : quand des données douteuses font dérailler les IA », Pour la science, 1er octobre 2025
https://www.pourlascience.fr/theme/inte ... -28275.php