Grok, l’intelligence artificielle (IA) développée par Elon Musk, a diffusé de fausses informations sur l’attentat de Sydney, en affirmant notamment qu’une victime n’en était pas une ou en identifiant incorrectement un témoin ayant désarmé l’un des assaillants, selon des vérifications de l’AFP et d’experts. Ces assistants virtuels, appelés « chatbots », fournissent en temps réel des réponses aux utilisateurs sur des informations et images, alors que les géants de la tech ont réduit leurs équipes de vérification des faits.
Dimanche soir, un père et son fils ont ouvert le feu sur la foule rassemblée sur la plage de Bondi pour la fête juive de Hanouka, faisant au moins 15 morts et 42 blessés. Cette attaque, qualifiée d’« antisémite » et de « terroriste » par les autorités australiennes, a généré une avalanche d’informations en ligne, notamment sur X, où Grok est largement utilisé.
Le chatbot a mal identifié Ahmed al Ahmed, célébré en héros pour avoir désarmé l’un des assaillants. Bien que grièvement blessé et hospitalisé, Grok a affirmé que la vidéo le montrant était une vieille séquence virale d’un homme grimpant à un palmier dans un parking, suggérant une mise en scène. L’IA a même identifié Ahmed al Ahmed comme un otage israélien détenu par le Hamas.
Pour une autre scène, Grok a prétendu qu’il s’agissait d’images de la tempête Alfred ayant frappé l’est de l’Australie plus tôt dans l’année. Suite à l’insistance d’un utilisateur, l’IA a reconnu finalement que les images provenaient bien de l’attaque. Contacté par l’AFP, le développeur de Grok, xAI, a répondu par un message automatique : « Les médias traditionnels mentent ».
Après l’attaque, une photo d’un survivant a été diffusée en ligne, certains internautes affirmant à tort qu’il s’agissait d’un « plastron » (terme anglais « crisis actor » utilisé par les complotistes pour remettre en cause l’authenticité des victimes). Sur cette image, Grok a aussi parlé de « mise en scène ».
Les experts estiment que l’IA peut être utile pour certaines tâches, comme la géolocalisation d’images, mais jugent impossible pour le moment de remplacer l’analyse humaine pour vérifier les faits et fournir un contexte précis.

