Artwork

Contenido proporcionado por Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
Player FM : aplicación de podcast
¡Desconecta con la aplicación Player FM !

Adrià Garriga-Alonso sobre el riesgo existencial asociado a los modelos de lenguaje a gran escala

53:11
 
Compartir
 

Manage episode 418726419 series 3574790
Contenido proporcionado por Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.
  continue reading

2 episodios

Artwork
iconCompartir
 
Manage episode 418726419 series 3574790
Contenido proporcionado por Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Laura González Salmerón y Pablo Stafforini, Laura González Salmerón, and Pablo Stafforini o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
En esta entrevista, Adrià Garriga-Alonso aborda los riesgos existenciales que podrían derivarse de los sistemas de inteligencia artificial, particularmente de los modelos de lenguaje a gran escala. Después de dar algunas respuestas generales sobre las características de estas tecnologías y el riesgo que conllevan, Garriga-Alonso explica la posibilidad de que los modelos de lenguaje a gran escala lleguen a controlar nuestro futuro, debido a su potencial capacidad de persuadir, acumular poder y tomar medidas que beneficien sus propios intereses en lugar de los nuestros. Por último, se discuten algunas intervenciones que podrían mitigar estos riesgos.
  continue reading

2 episodios

Todos los episodios

×
 
Loading …

Bienvenido a Player FM!

Player FM está escaneando la web en busca de podcasts de alta calidad para que los disfrutes en este momento. Es la mejor aplicación de podcast y funciona en Android, iPhone y la web. Regístrate para sincronizar suscripciones a través de dispositivos.

 

Guia de referencia rapida

Escucha este programa mientras exploras
Reproducir