Nestes eventos especiais em direto, apresentarei os meus argumentos de que, embora a IA (Assistência Inteligente) e algumas formas de IA restrita possam ser benéficas para a humanidade, a ideia de construir AGIs, ou seja, "entidades digitais geralmente inteligentes" (tal como estabelecido por Sam Altman / OpenAI e outros) representa um risco existencial que não deve ser assumido ou autogerido por empresas privadas, corporações multinacionais ou empresas em fase de arranque financiadas por capital de risco.
Haverá 2 sessões com o mesmo conteúdo, mas com horários adaptados ao seu fuso horário:
18 de julho, às 18h00 CET para a UE/Américas: LinkedIn | Youtube
19 de julho, 9h00 CET para a UE / Reino Unido / APAC, AUS/NZ / ÍNDIA e outros: LinkedIn | YouTube
Nas minhas apresentações, explicarei:
- Porque é que eu acredito que precisamos de um Acordo de Não Proliferação de AGI
- Qual é a diferença entre IA/AI e AGI ou ASI (super-inteligência)
- Porque é que é importante, e
- Como podemos fazer isso
Farei uma apresentação de 25 minutos e, em seguida, responderei às vossas perguntas e comentários. Poderei ter alguns convidados especiais neste programa em direto e responder a perguntas em direto no LinkedIn, no YT e no Twitter - e, possivelmente, ter algumas chamadas em vídeo em direto!