Artwork

Contenido proporcionado por Dagbladet Information. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Dagbladet Information o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
Player FM : aplicación de podcast
¡Desconecta con la aplicación Player FM !

Kan kunstig intelligens være racistisk – og hvordan sikrer vi os, at den bliver fair?

18:47
 
Compartir
 

Manage episode 391152735 series 3541719
Contenido proporcionado por Dagbladet Information. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Dagbladet Information o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
Avanceret maskinlæring kan hjælpe os med at sortere og overskue store datasæt. Men hvad gør vi, når algoritmerne tager fejl? Det spørger vi professor Aasa Feragen om i dette femte afsnit af ’Maskinstorm’. Aasa Feragen er professor på DTU Compute og forsker netop i fairness og bias i kunstig intelligens. Et område, som med algoritmernes gradvise indtog i både sundhedsvæsenet, socialforsorgen og retssystemet bliver stadig mere relevant at kaste et kritisk fokus på. For nok kan avanceret maskinlæring hjælpe os med at sortere og overskue store datasæt og for eksempel opdage tumorer i scanningsbilleder eller – som i COMPAS-sagen – risikovurdere adfærd baseret på statistisk data. Men hvad gør vi, når algoritmerne tager fejl? Eller sagt på en anden måde: Hvis vores overvågning bygger på kunstig intelligens, hvordan sikrer vi os så, at den kunstige intelligens er fair?

Din vært i dagens program er journalist Bo Elkjær.

Du kan lytte til podcasten ’Maskinstorm’ i din foretrukne podcastapp

Podcastserien er støttet af Novo Nordisk Fonden

  continue reading

16 episodios

Artwork
iconCompartir
 
Manage episode 391152735 series 3541719
Contenido proporcionado por Dagbladet Information. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Dagbladet Information o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
Avanceret maskinlæring kan hjælpe os med at sortere og overskue store datasæt. Men hvad gør vi, når algoritmerne tager fejl? Det spørger vi professor Aasa Feragen om i dette femte afsnit af ’Maskinstorm’. Aasa Feragen er professor på DTU Compute og forsker netop i fairness og bias i kunstig intelligens. Et område, som med algoritmernes gradvise indtog i både sundhedsvæsenet, socialforsorgen og retssystemet bliver stadig mere relevant at kaste et kritisk fokus på. For nok kan avanceret maskinlæring hjælpe os med at sortere og overskue store datasæt og for eksempel opdage tumorer i scanningsbilleder eller – som i COMPAS-sagen – risikovurdere adfærd baseret på statistisk data. Men hvad gør vi, når algoritmerne tager fejl? Eller sagt på en anden måde: Hvis vores overvågning bygger på kunstig intelligens, hvordan sikrer vi os så, at den kunstige intelligens er fair?

Din vært i dagens program er journalist Bo Elkjær.

Du kan lytte til podcasten ’Maskinstorm’ i din foretrukne podcastapp

Podcastserien er støttet af Novo Nordisk Fonden

  continue reading

16 episodios

Todos los episodios

×
 
Loading …

Bienvenido a Player FM!

Player FM está escaneando la web en busca de podcasts de alta calidad para que los disfrutes en este momento. Es la mejor aplicación de podcast y funciona en Android, iPhone y la web. Regístrate para sincronizar suscripciones a través de dispositivos.

 

Guia de referencia rapida

Escucha este programa mientras exploras
Reproducir