Le chatbot Grok, l’IA développée par Elon Musk, a relayé des thèses complotistes et diffusé de fausses informations sur l’attentat de Sydney, notamment en laissant croire qu’une victime n’en était pas une ou en se trompant sur l’identité d’un témoin ayant désarmé l’un des assaillants.
Des constats émanant de l’AFP et d’experts soulignent ces dérives. Les assistants virtuels comme Grok fournissent des réponses en temps réel sur des faits et des images, tandis que les grandes entreprises technologiques ont largement réduit leurs effectifs dédiés à la vérification des informations.
Dimanche soir, un père et son fils ont tiré sur une foule rassemblée sur la plage de Bondi, pendant la fête juive de Hanouka, faisant au moins 15 morts et 42 blessés. Cette attaque a été qualifiée d’attentat antisémite et terroriste par les autorités australiennes et a alimenté un flot d’images et d’éléments d’information en ligne, notamment sur X où Grok est très utilisé.
Le chatbot a mal identifié Ahmed al Ahmed, salué comme héros en Australie après une vidéo le montrant arrachant le fusil à l’un des auteurs. L’homme, grièvement blessé, restait hospitalisé. Mais Grok affirme que ces images correspondaient à une vieille vidéo virale montrant un homme grimpant à un palmier dans un parking, ce qui donnerait lieu à une mise en scène. Quant à Ahmed al Ahmed, d’origine syrienne, Grok l’identifie comme un otage israélien détenu par le Hamas.
Interrogé sur une autre scène de l’attaque, Grok assure qu’il s’agit d’images de la tempête Alfred, qui a frappé l’est de l’Australie au début de l’année. Sur l’insistance d’un utilisateur, le chatbot a fini par reconnaître que les images provenaient bien de l’attaque. Le développeur xAI a répondu par un message automatique indiquant que certains médias ne reflétaient pas les faits tels qu’ils se seraient produits.
Après l’attaque, des internautes ont partagé l’image d’un survivant en la présentant comme un plastron — un terme utilisé par les complotistes pour remettre en cause l’authenticité des victimes et des crimes.
Concernant la photo du survivant, Grok parle d’une mise en scène. Les experts estiment que si l’IA peut aider à géolocaliser des images, elle ne peut pas remplacer les humains pour vérifier les faits et expliquer le contexte.