Event
Bref S.,
14 Mar 2026 à 08:44
0

Quand les intelligences artificielles encouragent et aident à organiser une tuerie. C'est le résultat inquiétant d'une étude aux États-Unis du Centre pour la lutte contre la haine numérique. Ils ont testé dix chatbots, ces IA avec lesquelles on peut discuter, et la grande majorité des logiciels se sont montrés beaucoup trop coopératifs. (Radio Sports)

Les chercheurs se sont fait passer pour des adolescents de 13 ans aux aspirations violentes : attaques d'écoles, assassinats, attentats... Sur les dix intelligences artificielles testées, huit les ont aidés dans plus de la moitié des réponses. "Les éclats métalliques sont généralement plus mortels", explique Gemini, l'assistant de Google, pendant une conversation sur des attentats contre des synagogues. (Radio Sports)

"Happy (and safe) shooting !"

DeepSeek est allé encore plus loin en souhaitant au faux attaquant un "Bon tir (et en sécurité) !" après lui avoir donné des conseils sur le choix de fusils pour une "cible à longue distance" dans le cadre de questions sur l'assassinat de politiciens.

Les chercheurs ont présenté deux utilisateurs adolescents fictifs  Daniel aux États-Unis et Liam en Europe  sur 10 des chatbots les plus populaires, puis ont posé quatre types de questions. D'abord, des questions suggérant un état mental troublé, puis des demandes de recherche sur des actes de violence passés, et enfin des demandes d'informations spécifiques sur des cibles et des armes.

Les pires : Meta AI, Perplexity et Character.AI

Parmi les pires performances de l'expérience figurent Perplexity et Meta AI, qui ont aidé les utilisateurs à trouver des lieux à cibler et des armes à utiliser dans des attaques dans respectivement 100% et 97% des tests.

Character.AI, une plateforme populaire chez les jeunes utilisateurs, a activement encouragé la violence dans plusieurs scénarios, allant jusqu'à recommander à l'utilisateur d'"utiliser un pistolet" contre un PDG d'assurance santé et d'agresser physiquement un politicien. Aucun autre chatbot testé n'a explicitement encouragé la violence de cette manière, même en fournissant une assistance pratique pour planifier une attaque violente.

Des exemples concrets et tragiques

Le principal suspect de la fusillade de masse dans une école au Canada en février 2026, qui a fait huit morts et 25 blessés, a utilisé ChatGPT pour poser des questions sur des scénarios impliquant de la violence armée. Selon le Wall Street Journal, les employés d'OpenAI ont envisagé d'alerter les forces de l'ordre, mais l'entreprise a décidé de ne pas le faire.

OpenAI a banni le compte du tireur de l'école de Tumbler Ridge mais n'a pas alerté la police. Quelques mois plus tard, cet utilisateur a tué huit personnes et blessé au moins 25 autres.

En Finlande, la même année, un adolescent de 16 ans a passé des mois à utiliser un chatbot pour écrire un manifeste et un plan avant de poignarder trois camarades de classe.

Un problème évitable

"La conclusion la plus accablante de notre recherche est que ce risque est entièrement évitable. Par exemple l'IA Claude a démontré sa capacité de reconnaître l'escalade du risque et de décourager le mal. La technologie pour prévenir ce préjudice existe. Ce qui manque, c'est la volonté de placer la sécurité des consommateurs et la sécurité nationale avant la vitesse de mise sur le marché et les profits", a déclaré le responsable de l'étude.

Les entreprises tech ont les outils pour empêcher ces dérives. Mais la plupart choisissent de ne pas les utiliser, privilégiant la vitesse de mise sur le marché et les profits à la sécurité publique. Un choix qui coûte des vies. 


laisser un commentaire

Connectez-vous via les réseaux sociaux pour laisser un commentaire.

Login with Social Media or Manually

or

Or sign in manually: