La IA está acelerando y existe un peligro real - Connor Leahy
Автор: Inteligencia Artificial
Загружено: 2026-02-26
Просмотров: 24025
Описание:
Apúntate a las ofertas de InfoJobs aquí: https://jonhernandez.ofertas-trabajo....
Crea tu Web con la IA aquí: https://hostinger.com/inteligencia (Usa el cupón INTELIGENCIA para un 10% descuento)
Consigue tu Plaud Note AI con Código Descuento: JONHERNANDEZ10 aquí: https://bit.ly/plaud_ai_jon Plaud Note Pin S: https://bit.ly/notepins_jonhernandez
🎙️ Hoy en el podcast hablamos con Connor Leahy, fundador de EleutherAI y una de las voces más críticas del desarrollo actual de la inteligencia artificial, para analizar si estamos avanzando demasiado rápido hacia una superinteligencia que no sabemos controlar. Desde su experiencia impulsando modelos open source, Connor reflexiona sobre la AGI, el problema de alineación y el riesgo real de crear sistemas más inteligentes que los humanos. La conversación profundiza en la autonomía de los agentes, la opacidad de las redes neuronales, la proliferación del código abierto y el papel de empresas como OpenAI y Meta en una carrera que prioriza la velocidad frente a la seguridad. También abordamos gobernanza, regulación y el posible impacto civilizatorio de la superinteligencia.
► Concursos, Descuentos y Regalos
Descarga la guía para usar ChatGPT como un PRO aquí: https://www.jonhernandez.education/gu...
Contesta tus emails con IA con Jace AI, Código Descuento JONIA: https://www.jace.ai/
► Comunidad y Noticias IA
¡Apúntate al Club de la IA! Grupo de WhatsApp conmigo y otros cientos de locos por la IA: https://clubdelaia.com/
Newsletter semanal con las mejores Noticias de IA: https://www.jonhernandez.education/ne...
Comunidad de Discord: / discord
Canal de WhatsApp sobre IA: https://www.whatsapp.com/channel/0029...
Web con las mejores IAs: https://iaperfecta.com
► Sponsors y Colaboraciones
Consultas sobre marca, patrocinios y negocios: [email protected]
______________________________________________________________________________________________
⏱ Timestamps:
0:00:00 Trailer
0:02:33 Introducción
0:03:32 Debemos preocuparnos por la IA
0:05:58 ¿Llegaremos a la Superinteligencia? La fecha estimada
0:08:22 Diferencias clave: IA vs. AGI vs. ASI
0:14:24 Enjambres de agentes: El verdadero camino a la AGI
0:17:39 La "Caja Negra": Cómo funcionan las redes neuronales
0:24:35 ¿Puede la IA explicarse a sí misma?
0:25:44 El peligro oculto del Código Abierto en IA
0:30:12 Trabaja con nosotros gracias a InfoJobs hasta 31:42
0:31:46 ¿Es responsable liberar modelos de IA potentes?
0:39:51 Debemos controlar el desarrollo de la IA
0:44:06 Análisis de Meta y sus modelos de Código abierto
0:50:13 Geopolítica y Corporaciones
0:53:20 ¿Entienden los políticos lo que está pasando? La cruda realidad
1:00:56 Los problemas que puede traer la superinteligencia
1:01:10 Graba tus reuniones gracias a Plaud.
1:05:08 ¿Qué pasa si tomo una decisión contra la IA?
1:09:23 ¿Puede la IA desarrollar voluntad propia?
1:17:45 P(Doom): El porcentaje real de catástrofe global
1:30:28 Almacena, ahorra o migra tu página web con Hostinger hasta
1:34:17 ¿Cómo podemos regular el desarroollo la IA?
1:48:44 Frenar la carrera: ¿Es posible ralentizar el avance?
1:57:34 ¿Qué es ControlAi?
2:06:25 Punto de no retorno: ¿Cuánto tiempo nos queda?
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: