ChatGPT et les mesures d'OpenAI pour la transparence
Les équipes d’OpenAI sont sur le qui-vive. Pour la première fois, leur outil phare, ChatGPT, fait face à une élection présidentielle américaine en pleine effervescence, un événement crucial pour l’entreprise. Depuis le matin du 5 novembre, ChatGPT a commencé à informer les utilisateurs sur les élections en les incitant à consulter des sources fiables telles que Reuters, Associated Press, ou encore les commissions électorales locales.
Sam Altman, PDG d’OpenAI, a précisé que l'entreprise a testé des mesures de protection dès l’année dernière pour limiter les risques de désinformation. OpenAI a également promis de maintenir une transparence totale sur ses ajustements futurs, adaptant son dispositif au fil des événements. La firme surveille en temps réel d’éventuelles dérives pouvant survenir.
Cette vigilance est d’autant plus importante que la propagation de fake news pourrait impacter la perception du scrutin, très polarisé. Alon Yamin, PDG de la plateforme d’analyse Copyleaks, explique que si l’IA venait à relayer des informations biaisées, cela pourrait entraîner une vague de fausses nouvelles auprès des utilisateurs. En effet, les modèles de langage ont tendance à être influencés par les données disponibles en ligne, qui ne sont pas toujours vérifiées.
Claude d’Anthropic, un soutien pour les électeurs
La startup Anthropic a également pris des précautions en prévision de ce scrutin sous haute tension. Son agent conversationnel, Claude, dirige les électeurs vers TurboVote, une plateforme reconnue pour son caractère non partisan, et destinée à fournir des informations vérifiées. Anthropic a intégré des dispositifs visant à empêcher que Claude ne soit utilisé pour promouvoir un candidat ou pour diffuser des rumeurs.
Anthropic s’est engagée à ce que Claude puisse orienter ses utilisateurs vers des données neutres et à ne pas générer d’informations sensibles. Ces garde-fous visent à empêcher toute manipulation, un enjeu fondamental dans un climat politique aussi tendu. D’autres géants comme Google ont également suivi cette direction en renforçant les restrictions de leurs outils.
Google et les restrictions de Gemini
La firme de Mountain View a elle aussi pris des décisions drastiques concernant ses agents IA tels que Gemini. Désormais, ce dernier refuse toute question liée aux élections, préférant éviter les risques de propagation de fausses informations. Cette décision montre la prise de conscience des grandes entreprises quant aux dangers potentiels de leurs technologies dans un contexte où la désinformation peut nuire au processus démocratique.
En combinant ces stratégies, OpenAI, Anthropic, et Google espèrent que leurs outils ne deviendront pas des vecteurs de rumeurs ou de récits erronés, un défi de taille pour ces acteurs de la tech. Les semaines à venir permettront de mesurer l’efficacité de ces garde-fous et leur impact réel sur la perception des élections américaines de 2024.
Ce qu'il faut retenir :- 📊 OpenAI oriente les utilisateurs de ChatGPT vers des sources fiables.
- 🛡️ Anthropic s'assure que Claude guide vers TurboVote pour des informations neutres.
- 🔒 Google limite les interactions sur les élections avec Gemini.
- ⚠️ Les géants de l'IA se prémunissent contre la désinformation autour des élections.
- 🔍 La surveillance et la transparence sont essentielles pour ces entreprises.
0 Commentaires
Commenter cette actualité