En estos eventos especiales en directo, presentaré mis argumentos de que, si bien la AI (Asistencia Inteligente) y algunas formas de IA restringida podrían ser beneficiosas para la humanidad, la idea de construir AGIs, es decir, "entidades digitales generalmente inteligentes" (tal y como plantean Sam Altman / OpenAI y otros) representa un riesgo existencial que no debería ser asumido o autogestionado por empresas privadas, corporaciones multinacionales o startups financiadas con capital riesgo.
Habrá 2 sesiones con el mismo contenido, pero adaptadas a su zona horaria:
18 de julio, 18.00 horas (CET) para la UE y América: LinkedIn | Youtube
19 de julio, 9 h CET para la UE / Reino Unido / APAC, AUS/NZ / INDIA y otros: LinkedIn | YouTube
En mis presentaciones lo explicaré:
- Por qué creo que necesitamos un acuerdo AGI de no proliferación
- Cuál es la diferencia entre IA/AI y AGI o ASI (superinteligencia)
- Por qué es importante, y
- Cómo podríamos hacerlo
Presentaré el programa durante 25 minutos y después responderé a sus preguntas y comentarios. Es posible que tenga invitados especiales en este programa en directo y que responda a preguntas en directo en LinkedIn, YT y Twitter, ¡y posiblemente tenga algunas llamadas de vídeo en directo!