Artwork

Contenido proporcionado por EPIIPLUS 1 Ltd / Azeem Azhar and Azeem Azhar. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente EPIIPLUS 1 Ltd / Azeem Azhar and Azeem Azhar o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
Player FM : aplicación de podcast
¡Desconecta con la aplicación Player FM !

Azeem’s Picks: How to Practice Responsible AI with Dr. Rumman Chowdhury

48:54
 
Compartir
 

Manage episode 381615846 series 2447657
Contenido proporcionado por EPIIPLUS 1 Ltd / Azeem Azhar and Azeem Azhar. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente EPIIPLUS 1 Ltd / Azeem Azhar and Azeem Azhar o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.

Artificial Intelligence (AI) is on every business leader’s agenda. How do you ensure the AI systems you deploy are harmless and trustworthy? This month, Azeem picks some of his favorite conversations with leading AI safety experts to help you break through the noise.

Today’s pick is Azeem’s conversation with Dr. Rumman Chowdhury, a pioneer in the field of applied algorithmic ethics. She runs Parity Consulting, the Parity Responsible Innovation Fund, and she’s a Responsible AI Fellow at the Berkman Klein Center for Internet & Society at Harvard University.

They discuss:

  • How you can assess and diagnose bias in unexplainable “black box” algorithms.
  • Why responsible AI demands top-down organizational change, implementing new metrics, and systems of redress.
  • More details on the emerging field of “Responsible Machine Learning Operations”.

Further resources:

  continue reading

186 episodios

Artwork
iconCompartir
 
Manage episode 381615846 series 2447657
Contenido proporcionado por EPIIPLUS 1 Ltd / Azeem Azhar and Azeem Azhar. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente EPIIPLUS 1 Ltd / Azeem Azhar and Azeem Azhar o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.

Artificial Intelligence (AI) is on every business leader’s agenda. How do you ensure the AI systems you deploy are harmless and trustworthy? This month, Azeem picks some of his favorite conversations with leading AI safety experts to help you break through the noise.

Today’s pick is Azeem’s conversation with Dr. Rumman Chowdhury, a pioneer in the field of applied algorithmic ethics. She runs Parity Consulting, the Parity Responsible Innovation Fund, and she’s a Responsible AI Fellow at the Berkman Klein Center for Internet & Society at Harvard University.

They discuss:

  • How you can assess and diagnose bias in unexplainable “black box” algorithms.
  • Why responsible AI demands top-down organizational change, implementing new metrics, and systems of redress.
  • More details on the emerging field of “Responsible Machine Learning Operations”.

Further resources:

  continue reading

186 episodios

Todos los episodios

×
 
Loading …

Bienvenido a Player FM!

Player FM está escaneando la web en busca de podcasts de alta calidad para que los disfrutes en este momento. Es la mejor aplicación de podcast y funciona en Android, iPhone y la web. Regístrate para sincronizar suscripciones a través de dispositivos.

 

Guia de referencia rapida