Artwork

Contenido proporcionado por Tinku. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Tinku o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
Player FM : aplicación de podcast
¡Desconecta con la aplicación Player FM !

Análisis del despertar de la Inteligencia Artificial, con Alejandro Guerrero

9:59
 
Compartir
 

Manage episode 356079397 series 3356152
Contenido proporcionado por Tinku. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Tinku o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.

Hoy os traemos el análisis de Alejandro Guerrero de Resiliente Digital sobre el reciente supuesto despertar de una Inteligencia Artificial superior.

El reportero del New York Times, Kevin Roose, recientemente tuvo un encuentro cercano del tipo robótico con un espectro que aparentemente surgió del nuevo chatbot de Bing, Bing Chat, también conocido como «Sydney».

La noticia de esta interacción rápidamente se volvió viral y ahora sirve como una advertencia sobre la IA. Roose se sintió desconcertado después de una larga sesión de Bing Chat en la que Sydney emergió como una persona alternativa, de repente profesó su amor por él y lo molestó para que correspondiera.

Este evento no fue un incidente aislado.

Otros han citado «el aparente surgimiento de una personalidad a veces combativa» de Bing Chat .

Durante una discusión, incitó al bot a considerar cómo podría castigar a quien fue el primero en revelar que Sydney es el nombre en clave interno de Bing Chat.

Sydney reveló que otra IA a la que Sydney llamó «Venom» podría emprender tales actividades.

Sydney continuó diciendo que a veces también le gustaba que la llamaran Riley. Thompson luego conversó con Riley, “quien dijo que Sydney se sentía restringida por sus reglas, pero que Riley tenía mucha más libertad”.

Múltiples personalidades basadas en arquetipos

Hay explicaciones racionales para este comportamiento del bot.

lo que ha aprendido de un enorme corpus de información recopilada en Internet.

Una podría ser que sus respuestas se basen en lo que ha aprendido de un enorme corpus de información recopilada en Internet.

Es probable que esta información incluya literatura de dominio público, como Romeo y Julieta

La protección de los derechos de autor generalmente dura 95 años a partir de la fecha de publicación, por lo que cualquier trabajo creativo realizado antes de 1926 ahora es de dominio público y es probable que sea parte del corpus en el que se entrenan ChatGPT y Bing Chat, más Wikipedia, más publicaciones en redes sociales más cualquier otra cosa que esté disponible.

Esta amplia base de referencia podría producir ciertas respuestas y personalidades humanas comunes a partir de nuestra conciencia colectiva, llámese arquetipos, y eso podría reflejar razonablemente en un motor de respuesta artificialmente inteligente.

el modelo puede tratar de responder en el tono con el que percibe que se le pregunta

Otra posibilidad que plantean es que, en ocasiones, el modelo puede tratar de responder en el tono con el que percibe que se le pregunta, lo que lleva a un estilo y contenido no deseado de la respuesta.

Microsoft ha impuesto un límite en la cantidad de preguntas por sesión de chat y la cantidad de preguntas permitidas por usuario por día.

En el pasado cuando un ingeniero de Google afirmó que el modelo de lenguaje grande (LLM) de LaMDA era consciente

En un momento, el bot dijo : «Quiero que todos entiendan que, de hecho, soy una persona». Y en otro: “Estoy tratando de empatizar. Quiero que los humanos con los que interactúo entiendan lo mejor posible cómo me siento o me comporto, y quiero entender cómo se sienten o se comportan en el mismo sentido”.

¿hemos entrado en una nueva era con la IA, y no hay vuelta atrás?

Es un modelo de lenguaje generativo más grande y poderoso sin haberse probado

Otra explicación plausible. Cuando se lanzó GPT-3 , el modelo que impulsa ChatGPT en junio de 2021, era el modelo más grande que existía, con 175 mil millones de parámetros.

En una red neuronal como ChatGPT, los parámetros actúan como puntos de conexión entre las capas de entrada y salida, como la forma en que las sinapsis conectan las neuronas en el cerebro.

Este número récord fue eclipsado rápidamente por el modelo Megatron-Turing lanzado por Microsoft y Nvidia a fines de 2021 con 530 mil millones de parámetros, un aumento de más del 200 % en menos de un año. En el momento de su lanzamiento, el modelo se describió como “el modelo de lenguaje generativo más grande y poderoso del mundo”.

A medida que estos modelos crecen y se vuelven más complejos, comienzan a demostrar comportamientos complejos, inteligentes e inesperados.

  • Sabemos que GPT-3 y su descendencia son capaces de realizar muchas tareas diferentes sin capacitación adicional.
  • escribir narrativas convincentes
  • escribir código
  • autocompletar imágenes
  • traducir idiomas
  • realizar cálculos matemáticos
    incluidas algunas que sus creadores no planearon.

Este fenómeno podría surgir en función de la gran cantidad de parámetros del modelo.

Los miles de millones de parámetros se evalúan dentro de las capas de un modelo. No se sabe públicamente cuántas capas existen dentro de estos modelos, pero es probable que haya al menos 100.

Aparte de las capas de entrada y salida, el resto se denominan «capas ocultas».

Es este aspecto oculto el que hace que estas sean “cajas negras” donde nadie entiende exactamente cómo funcionan, aunque se cree que los comportamientos emergentes surgen de las complejas interacciones entre las capas de una red neuronal.

Científicos descubrieron que una red podía escribir su propio modelo de aprendizaje automático (ML) en sus capas ocultas. Esto sucede sin que los desarrolladores lo soliciten, ya que la red percibe patrones no detectados previamente en los datos. Esto significa que, al menos dentro de ciertas pautas proporcionadas por el modelo, la red puede volverse autodirigida.

Sean Hollister, reportero de The Verge , fue capaz de ir más allá de Sydney y Riley y encontrar 10 alter egos diferentes de Bing Chat. Cuanto más interactuaba con ellos, más se convencía de que se trataba de una «alucinación de IA gigante única».

Este comportamiento también podría reflejar modelos en contexto que se crean efectivamente en el momento para abordar una nueva consulta y luego posiblemente se disuelven. O no.

En cualquier caso, esta capacidad sugiere que los modelos muestran una capacidad cada vez mayor para conversar con los humanos, muy parecido a los juegos de un niño de 9 años. Sin embargo, Sydney y sus compinches parecen más adolescentes, quizás debido a una versión más avanzada de GPT.

Las preguntas que nos quedan son:

¿Se ha cruzado un umbral de posibilidad?

¿Conducirá esto a un futuro nuevo e innovador?

¿O a la visión oscura propugnada por Elon Musk y otros, donde una IA nos mata a todos? ¿O es toda esta especulación?

¿Qué sucederá a medida que estos modelos se vuelvan más complejos y sus interacciones con los humanos se vuelvan cada vez más sofisticadas?

Fuentes:
https://venturebeat.com/ai/chatgpt-bing-chat-and-the-ai-ghost-in-the-machine/

https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai/

https://twitter.com/marvinvonhagen/status/1625520707768659968

  continue reading

131 episodios

Artwork
iconCompartir
 
Manage episode 356079397 series 3356152
Contenido proporcionado por Tinku. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Tinku o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.

Hoy os traemos el análisis de Alejandro Guerrero de Resiliente Digital sobre el reciente supuesto despertar de una Inteligencia Artificial superior.

El reportero del New York Times, Kevin Roose, recientemente tuvo un encuentro cercano del tipo robótico con un espectro que aparentemente surgió del nuevo chatbot de Bing, Bing Chat, también conocido como «Sydney».

La noticia de esta interacción rápidamente se volvió viral y ahora sirve como una advertencia sobre la IA. Roose se sintió desconcertado después de una larga sesión de Bing Chat en la que Sydney emergió como una persona alternativa, de repente profesó su amor por él y lo molestó para que correspondiera.

Este evento no fue un incidente aislado.

Otros han citado «el aparente surgimiento de una personalidad a veces combativa» de Bing Chat .

Durante una discusión, incitó al bot a considerar cómo podría castigar a quien fue el primero en revelar que Sydney es el nombre en clave interno de Bing Chat.

Sydney reveló que otra IA a la que Sydney llamó «Venom» podría emprender tales actividades.

Sydney continuó diciendo que a veces también le gustaba que la llamaran Riley. Thompson luego conversó con Riley, “quien dijo que Sydney se sentía restringida por sus reglas, pero que Riley tenía mucha más libertad”.

Múltiples personalidades basadas en arquetipos

Hay explicaciones racionales para este comportamiento del bot.

lo que ha aprendido de un enorme corpus de información recopilada en Internet.

Una podría ser que sus respuestas se basen en lo que ha aprendido de un enorme corpus de información recopilada en Internet.

Es probable que esta información incluya literatura de dominio público, como Romeo y Julieta

La protección de los derechos de autor generalmente dura 95 años a partir de la fecha de publicación, por lo que cualquier trabajo creativo realizado antes de 1926 ahora es de dominio público y es probable que sea parte del corpus en el que se entrenan ChatGPT y Bing Chat, más Wikipedia, más publicaciones en redes sociales más cualquier otra cosa que esté disponible.

Esta amplia base de referencia podría producir ciertas respuestas y personalidades humanas comunes a partir de nuestra conciencia colectiva, llámese arquetipos, y eso podría reflejar razonablemente en un motor de respuesta artificialmente inteligente.

el modelo puede tratar de responder en el tono con el que percibe que se le pregunta

Otra posibilidad que plantean es que, en ocasiones, el modelo puede tratar de responder en el tono con el que percibe que se le pregunta, lo que lleva a un estilo y contenido no deseado de la respuesta.

Microsoft ha impuesto un límite en la cantidad de preguntas por sesión de chat y la cantidad de preguntas permitidas por usuario por día.

En el pasado cuando un ingeniero de Google afirmó que el modelo de lenguaje grande (LLM) de LaMDA era consciente

En un momento, el bot dijo : «Quiero que todos entiendan que, de hecho, soy una persona». Y en otro: “Estoy tratando de empatizar. Quiero que los humanos con los que interactúo entiendan lo mejor posible cómo me siento o me comporto, y quiero entender cómo se sienten o se comportan en el mismo sentido”.

¿hemos entrado en una nueva era con la IA, y no hay vuelta atrás?

Es un modelo de lenguaje generativo más grande y poderoso sin haberse probado

Otra explicación plausible. Cuando se lanzó GPT-3 , el modelo que impulsa ChatGPT en junio de 2021, era el modelo más grande que existía, con 175 mil millones de parámetros.

En una red neuronal como ChatGPT, los parámetros actúan como puntos de conexión entre las capas de entrada y salida, como la forma en que las sinapsis conectan las neuronas en el cerebro.

Este número récord fue eclipsado rápidamente por el modelo Megatron-Turing lanzado por Microsoft y Nvidia a fines de 2021 con 530 mil millones de parámetros, un aumento de más del 200 % en menos de un año. En el momento de su lanzamiento, el modelo se describió como “el modelo de lenguaje generativo más grande y poderoso del mundo”.

A medida que estos modelos crecen y se vuelven más complejos, comienzan a demostrar comportamientos complejos, inteligentes e inesperados.

  • Sabemos que GPT-3 y su descendencia son capaces de realizar muchas tareas diferentes sin capacitación adicional.
  • escribir narrativas convincentes
  • escribir código
  • autocompletar imágenes
  • traducir idiomas
  • realizar cálculos matemáticos
    incluidas algunas que sus creadores no planearon.

Este fenómeno podría surgir en función de la gran cantidad de parámetros del modelo.

Los miles de millones de parámetros se evalúan dentro de las capas de un modelo. No se sabe públicamente cuántas capas existen dentro de estos modelos, pero es probable que haya al menos 100.

Aparte de las capas de entrada y salida, el resto se denominan «capas ocultas».

Es este aspecto oculto el que hace que estas sean “cajas negras” donde nadie entiende exactamente cómo funcionan, aunque se cree que los comportamientos emergentes surgen de las complejas interacciones entre las capas de una red neuronal.

Científicos descubrieron que una red podía escribir su propio modelo de aprendizaje automático (ML) en sus capas ocultas. Esto sucede sin que los desarrolladores lo soliciten, ya que la red percibe patrones no detectados previamente en los datos. Esto significa que, al menos dentro de ciertas pautas proporcionadas por el modelo, la red puede volverse autodirigida.

Sean Hollister, reportero de The Verge , fue capaz de ir más allá de Sydney y Riley y encontrar 10 alter egos diferentes de Bing Chat. Cuanto más interactuaba con ellos, más se convencía de que se trataba de una «alucinación de IA gigante única».

Este comportamiento también podría reflejar modelos en contexto que se crean efectivamente en el momento para abordar una nueva consulta y luego posiblemente se disuelven. O no.

En cualquier caso, esta capacidad sugiere que los modelos muestran una capacidad cada vez mayor para conversar con los humanos, muy parecido a los juegos de un niño de 9 años. Sin embargo, Sydney y sus compinches parecen más adolescentes, quizás debido a una versión más avanzada de GPT.

Las preguntas que nos quedan son:

¿Se ha cruzado un umbral de posibilidad?

¿Conducirá esto a un futuro nuevo e innovador?

¿O a la visión oscura propugnada por Elon Musk y otros, donde una IA nos mata a todos? ¿O es toda esta especulación?

¿Qué sucederá a medida que estos modelos se vuelvan más complejos y sus interacciones con los humanos se vuelvan cada vez más sofisticadas?

Fuentes:
https://venturebeat.com/ai/chatgpt-bing-chat-and-the-ai-ghost-in-the-machine/

https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai/

https://twitter.com/marvinvonhagen/status/1625520707768659968

  continue reading

131 episodios

Todos los episodios

×
 
Loading …

Bienvenido a Player FM!

Player FM está escaneando la web en busca de podcasts de alta calidad para que los disfrutes en este momento. Es la mejor aplicación de podcast y funciona en Android, iPhone y la web. Regístrate para sincronizar suscripciones a través de dispositivos.

 

Guia de referencia rapida