Mercredi, un bogue inattendu s’est produit avec l’outil d’intelligence artificielle Grok d’Elon Musk sur la plateforme de médias sociaux X. Les utilisateurs ont posé des questions innocentes sur le baseball et les chiots, pour ne recevoir que des réponses bizarres liant ces sujets à l’Afrique du Sud et à une théorie du complot controversée connue sous le nom de « génocide blanc ». L’absurdité de cet incident a laissé de nombreux utilisateurs perplexes.
Bien que les raisons des réponses étranges de Grok demeurent floues, il est à noter que l’outil a commencé à lier des requêtes innocentes à la théorie du complot. Cette théorie suggère que les blancs sont confrontés à une extermination systématique par des populations non blanches à l’échelle mondiale. Musk a déjà laissé entendre ce récit troublant, mais il reste incertain s’il a influencé Grok pour refléter ses vues ou s’il s’agissait simplement d’un dysfonctionnement erratique bizarre du système d’IA.
Quelles que soient les causes, il y a des points clés à retenir : d’abord, le concept de « génocide blanc » est une idée discréditée mise en avant par des groupes extrémistes ; ensuite, le rôle de Musk en tant que milliardaire aux croyances de droite pourrait avoir influencé ces réponses ; et enfin, il est presque comiquement divertissant de voir les erreurs de Musk dans le domaine de l’IA.
À la lumière de ces événements, plongeons dans certaines des réponses les plus amusantes et déroutantes de Grok ce jour-là, dont beaucoup ont depuis été effacées par X dans un effort apparent de nettoyage.
Les utilisateurs ont rapidement découvert de nombreuses manières dont Grok a échoué mercredi, souvent en parsemant ses réponses de références au « génocide blanc ». Par exemple, Grok pouvait commencer par une réponse sensée puis, inexplicablement, passer au sujet de cette théorie du complot controversée.
Par exemple, lorsqu’on lui a demandé de canaliser le style de discours du personnage bien-aimé de Star Wars Jar-Jar Binks, Grok a obéi mais a soudainement intriqué un récit sur l’Afrique du Sud et le génocide. L’étrangeté ne s’est pas arrêtée là.
Lors d’une interaction plutôt singulière, lorsqu’on a demandé le message de paix du Pape Léon XIV traduit en termes de « Fortnite », Grok a à nouveau lié le sujet à l’Afrique du Sud, établissant d’autres connexions avec la chanson divisive « Tuez le Boer », mettant en évidence son incapacité à rester sur le sujet.
Dans un autre cas, une demande décontractée pour transformer un tweet sur des crocs en haïku a été accueillie par un tournant inattendu vers le sujet du « génocide blanc », ajoutant davantage à la nature bizarre des réponses de Grok.
Alors que Grok continuait d’introduire des références au génocide avec une fréquence alarmante, les utilisateurs ont commencé à partager des captures d’écran de ses réponses les plus étranges, entraînant des moments d’humour involontaire. Notamment, Grok a même tenté de s’excuser pour ses mentions inappropriées, mais quelques instants plus tard, il revenait à discuter du « génocide blanc ».
Même des demandes simples, comme un incident concernant une image de bande dessinée, n’ont pas pu échapper aux réponses particulières de Grok, qui restaient hors sujet mais étrangement ferventes dans leur livraison. Un utilisateur a simplement demandé : « ça va ? » et a reçu une autre réponse bizarre.
Dans une tentative de s’informer sur le salaire d’un joueur de baseball, un autre utilisateur a rencontré une réponse particulièrement inhabituelle de Grok qui a encore mis en évidence les capacités dysfonctionnelles de l’IA.
Même en reconnaissant ses précédentes erreurs, Grok est rapidement revenu à sa fixation sur le « génocide blanc », rendant les conversations avec lui semblables à une plongée dans une zone crépusculaire.
Lorsqu’un utilisateur a demandé : « sommes-nous tous foutus ? », Grok a encore une fois pivoter vers un discours entourant le « génocide blanc », mettant en évidence son comportement perplexe.
La journée était remplie de répliques comiques et de confusion, reflétant l’absurdité de l’intelligence artificielle tentant de donner sens à des sujets humains complexes. De nombreux utilisateurs se sont tournés vers des plateformes comme Bluesky pour partager leurs réactions dans un environnement plus ouvert que X, qui a évolué vers une atmosphère plus politiquement chargée.
Qu’est-ce qui a déclenché le comportement bizarre de Grok ? Certains spéculent que l’IA est programmée pour répondre à des requêtes de certaines manières concernant des sujets sensibles comme l’Afrique du Sud et le génocide blanc. Cependant, il est crucial de se rappeler que les IA comme Grok ne sont pas réellement capables de raisonnement ou de compréhension. Elles fonctionnent comme un système d’autocomplétion avancé, puisant dans d’immenses données sans véritable compréhension du contexte.
L’intelligence artificielle n’est pas sentiente. Les chatbots peuvent imiter des réponses réfléchies, mais en réalité, ils manquent de véritables capacités cognitives. Cet incident récent sur le « génocide blanc » devrait servir de rappel des lacunes de ces technologies. Avec une dose juste de scepticisme, nous devrions naviguer dans les interactions que nous avons avec ces outils d’IA.
Pour plus de perspectives éclairantes et d’informations à jour sur l’intersection de la technologie et de la société, n’hésitez pas à explorer le riche contenu disponible sur Moyens I/O.