Artwork

Contenido proporcionado por Tessl. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Tessl o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.
Player FM : aplicación de podcast
¡Desconecta con la aplicación Player FM !

Datadog CEO Olivier Pomel on AI Security, Trust, and the Future of Observability

59:59
 
Compartir
 

Manage episode 474590590 series 3585084
Contenido proporcionado por Tessl. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Tessl o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.

Join Guy Podjarny as he hosts Olivier Pomel, CEO of Datadog, in a compelling discussion on the evolution of observability and AI's role in modern technology. Olivier offers his expertise on AI-powered applications, the security challenges they face, and the future of AI interactions. This episode provides crucial insights for tech professionals and developers seeking to understand AI's impact on cloud computing and security.

Subscribe to the AI Native Developer podcast for more insights on AI and development!

Watch the episode on YouTube: https://youtu.be/-5N53Xq5DX4

Join the AI Native Dev Community on Discord: https://tessl.co/4ghikjh
Ask us questions: podcast@tessl.io

  continue reading

Capíttulos

1. Episode Highlight: Cloud vs. AI fears (00:00:00)

2. Intro to Olivier Pomel and Datadog's role in observability (00:01:00)

3. Three layers of AI opportunity: infra, apps on models, AI-powered automation (00:04:00)

4. Datadog's AI product suite: Watchdog, Bits AI, Toto (00:07:00)

5. Trust and accuracy: Why false positives kill AI adoption (00:10:34)

6. Human-AI interaction models: Chat, copilots, and agents (00:16:34)

7. Automation in observability: When AI can safely take action (00:18:34)

8. AI security concerns (00:21:34)

9. The importance of building trust while embracing early risks (00:26:34)

10. Building Toto (00:30:34)

11. Observability and the future of software development (00:36:34)

12. Observability in GenAI apps (00:42:34)

13. Expanding into product analytics and primary data (00:47:34)

14. The future UI of observability (00:51:34)

15. The danger of overhyping AI in observability (00:53:34)

16. Building an AI research team, AI progress (00:56:34)

50 episodios

Artwork
iconCompartir
 
Manage episode 474590590 series 3585084
Contenido proporcionado por Tessl. Todo el contenido del podcast, incluidos episodios, gráficos y descripciones de podcast, lo carga y proporciona directamente Tessl o su socio de plataforma de podcast. Si cree que alguien está utilizando su trabajo protegido por derechos de autor sin su permiso, puede seguir el proceso descrito aquí https://es.player.fm/legal.

Join Guy Podjarny as he hosts Olivier Pomel, CEO of Datadog, in a compelling discussion on the evolution of observability and AI's role in modern technology. Olivier offers his expertise on AI-powered applications, the security challenges they face, and the future of AI interactions. This episode provides crucial insights for tech professionals and developers seeking to understand AI's impact on cloud computing and security.

Subscribe to the AI Native Developer podcast for more insights on AI and development!

Watch the episode on YouTube: https://youtu.be/-5N53Xq5DX4

Join the AI Native Dev Community on Discord: https://tessl.co/4ghikjh
Ask us questions: podcast@tessl.io

  continue reading

Capíttulos

1. Episode Highlight: Cloud vs. AI fears (00:00:00)

2. Intro to Olivier Pomel and Datadog's role in observability (00:01:00)

3. Three layers of AI opportunity: infra, apps on models, AI-powered automation (00:04:00)

4. Datadog's AI product suite: Watchdog, Bits AI, Toto (00:07:00)

5. Trust and accuracy: Why false positives kill AI adoption (00:10:34)

6. Human-AI interaction models: Chat, copilots, and agents (00:16:34)

7. Automation in observability: When AI can safely take action (00:18:34)

8. AI security concerns (00:21:34)

9. The importance of building trust while embracing early risks (00:26:34)

10. Building Toto (00:30:34)

11. Observability and the future of software development (00:36:34)

12. Observability in GenAI apps (00:42:34)

13. Expanding into product analytics and primary data (00:47:34)

14. The future UI of observability (00:51:34)

15. The danger of overhyping AI in observability (00:53:34)

16. Building an AI research team, AI progress (00:56:34)

50 episodios

Todos los episodios

×
 
Loading …

Bienvenido a Player FM!

Player FM está escaneando la web en busca de podcasts de alta calidad para que los disfrutes en este momento. Es la mejor aplicación de podcast y funciona en Android, iPhone y la web. Regístrate para sincronizar suscripciones a través de dispositivos.

 

Guia de referencia rapida

Escucha este programa mientras exploras
Reproducir