Artwork

Contenido proporcionado por Fast Foundations. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Fast Foundations o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
Player FM : aplicación de podcast
¡Desconecta con la aplicación Player FM !

Les chatbots IA peuvent-ils créer de faux souvenirs ?

4:46
 
Compartir
 

Manage episode 439174419 series 3554672
Contenido proporcionado por Fast Foundations. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Fast Foundations o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.

Les chatbots IA peuvent induire de faux souvenirs. Voilà la révélation étonnante que Jim Carter examine dans cet épisode de "The Prompt".

Jim partage une étude révolutionnaire menée par le MIT et l'Université de Californie, Irvine, qui a découvert que les chatbots alimentés par l'IA peuvent créer de faux souvenirs chez les utilisateurs. Imaginez être témoin d’un crime et ensuite être induit en erreur par un chatbot qui vous ferait souvenir de choses qui ne se sont jamais produites. Effrayant, n’est-ce pas?

L'étude a impliqué 200 participants qui ont visionné une vidéo silencieuse de CCTV d'un vol à main armée. Ils ont été répartis en quatre groupes : un groupe de contrôle, un questionnaire avec des questions trompeuses, un chatbot pré-scripté et un chatbot génératif utilisant un modèle de langage large.

Les résultats? Le chatbot génératif a induit près de trois fois plus de faux souvenirs par rapport au groupe de contrôle. Ce qui est encore plus fou, c'est que 36 % des réponses des utilisateurs au chatbot génératif étaient induites en erreur, et ces faux souvenirs sont restés pendant au moins une semaine!

Jim explore pourquoi certaines personnes sont plus susceptibles à ces faux souvenirs induits par l'IA. Il s'avère que les personnes qui sont familières avec l'IA mais pas avec les chatbots sont plus susceptibles d'être induites en erreur. De plus, ceux qui s'intéressent particulièrement aux enquêtes criminelles sont plus vulnérables, probablement en raison de leur plus grande implication et du traitement de la désinformation.

Alors, pourquoi les chatbots "hallucinent"-ils ou génèrent-ils de fausses informations? Jim explique les limites et les biais des données d'entraînement, le surapprentissage, et la nature des grands modèles de langage, qui privilégient les réponses plausibles à l'exactitude factuelle. Ces hallucinations peuvent répandre de la désinformation, éroder la confiance dans l'IA, et même causer des problèmes juridiques.

Mais ne vous inquiétez pas, Jim ne nous laisse pas sans solutions. Il partage des étapes concrètes pour minimiser ces risques, comme améliorer la qualité des données d'entraînement, combiner les modèles de langage avec des systèmes de vérification des faits, et développer des systèmes de détection d'hallucinations.

Vous voulez rester au courant des derniers développements en IA? Rejoignez le groupe Slack Fast Foundations de Jim pour discuter de ces questions critiques et travailler vers un développement responsable de l'IA. Rendez-vous sur fastfoundations.com/slack pour participer à la conversation.

Rappelez-vous, nous avons le pouvoir de façonner l’avenir de l’IA, alors continuons le dialogue, une question à la fois.

---

Cet épisode et l’intégralité du podcast sont produits avec la puissance de l'Intelligence Artificielle (IA) par le spécialiste, Jim Carter. Jim ne parle pas français! C’est son podcast et son expérience, et il vous est reconnaissant pour votre soutien.

Merci de laisser un commentaire 🌟🌟🌟🌟🌟 (5) étoiles et de le partager avec un ami.

Il partage ce qu'il construit publiquement et vous pouvez apprendre à le faire pour vous-même et pour votre entreprise en rejoignant sa communauté privée sur Slack à l’adresse https://fastfoundations.com/slack

Connectez-vous et en apprenez plus sur Jim à https://jimcarter.me

  continue reading

30 episodios

Artwork
iconCompartir
 
Manage episode 439174419 series 3554672
Contenido proporcionado por Fast Foundations. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Fast Foundations o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.

Les chatbots IA peuvent induire de faux souvenirs. Voilà la révélation étonnante que Jim Carter examine dans cet épisode de "The Prompt".

Jim partage une étude révolutionnaire menée par le MIT et l'Université de Californie, Irvine, qui a découvert que les chatbots alimentés par l'IA peuvent créer de faux souvenirs chez les utilisateurs. Imaginez être témoin d’un crime et ensuite être induit en erreur par un chatbot qui vous ferait souvenir de choses qui ne se sont jamais produites. Effrayant, n’est-ce pas?

L'étude a impliqué 200 participants qui ont visionné une vidéo silencieuse de CCTV d'un vol à main armée. Ils ont été répartis en quatre groupes : un groupe de contrôle, un questionnaire avec des questions trompeuses, un chatbot pré-scripté et un chatbot génératif utilisant un modèle de langage large.

Les résultats? Le chatbot génératif a induit près de trois fois plus de faux souvenirs par rapport au groupe de contrôle. Ce qui est encore plus fou, c'est que 36 % des réponses des utilisateurs au chatbot génératif étaient induites en erreur, et ces faux souvenirs sont restés pendant au moins une semaine!

Jim explore pourquoi certaines personnes sont plus susceptibles à ces faux souvenirs induits par l'IA. Il s'avère que les personnes qui sont familières avec l'IA mais pas avec les chatbots sont plus susceptibles d'être induites en erreur. De plus, ceux qui s'intéressent particulièrement aux enquêtes criminelles sont plus vulnérables, probablement en raison de leur plus grande implication et du traitement de la désinformation.

Alors, pourquoi les chatbots "hallucinent"-ils ou génèrent-ils de fausses informations? Jim explique les limites et les biais des données d'entraînement, le surapprentissage, et la nature des grands modèles de langage, qui privilégient les réponses plausibles à l'exactitude factuelle. Ces hallucinations peuvent répandre de la désinformation, éroder la confiance dans l'IA, et même causer des problèmes juridiques.

Mais ne vous inquiétez pas, Jim ne nous laisse pas sans solutions. Il partage des étapes concrètes pour minimiser ces risques, comme améliorer la qualité des données d'entraînement, combiner les modèles de langage avec des systèmes de vérification des faits, et développer des systèmes de détection d'hallucinations.

Vous voulez rester au courant des derniers développements en IA? Rejoignez le groupe Slack Fast Foundations de Jim pour discuter de ces questions critiques et travailler vers un développement responsable de l'IA. Rendez-vous sur fastfoundations.com/slack pour participer à la conversation.

Rappelez-vous, nous avons le pouvoir de façonner l’avenir de l’IA, alors continuons le dialogue, une question à la fois.

---

Cet épisode et l’intégralité du podcast sont produits avec la puissance de l'Intelligence Artificielle (IA) par le spécialiste, Jim Carter. Jim ne parle pas français! C’est son podcast et son expérience, et il vous est reconnaissant pour votre soutien.

Merci de laisser un commentaire 🌟🌟🌟🌟🌟 (5) étoiles et de le partager avec un ami.

Il partage ce qu'il construit publiquement et vous pouvez apprendre à le faire pour vous-même et pour votre entreprise en rejoignant sa communauté privée sur Slack à l’adresse https://fastfoundations.com/slack

Connectez-vous et en apprenez plus sur Jim à https://jimcarter.me

  continue reading

30 episodios

Все серии

×
 
Loading …

Bienvenido a Player FM!

Player FM está escaneando la web en busca de podcasts de alta calidad para que los disfrutes en este momento. Es la mejor aplicación de podcast y funciona en Android, iPhone y la web. Regístrate para sincronizar suscripciones a través de dispositivos.

 

Guia de referencia rapida