Paolo Benanti – L’INTELLIGENZA ARTIFICIALE NON È NEUTRA: l’errore morale che stiamo già pagando
Автор: Start Hub
Загружено: 2026-01-13
Просмотров: 2590
Описание:
👉 Grandi divulgatori, format ed eventi d’eccellenza per aziende/enti/teatri: https://rebelchange.it/
---
🧠 DESCRIZIONE
Paolo Benanti è un teologo francescano, ingegnere elettronico ed esperto di etica delle tecnologie. È docente alla Pontificia Università Gregoriana, consulente della Santa Sede sui temi dell’intelligenza artificiale e membro di commissioni internazionali su tecnologia, bioetica e governance digitale. Da anni lavora sul rapporto tra innovazione tecnologica, responsabilità umana ed etica, con particolare attenzione all’impatto sociale dell’IA.
In questa intervista intensa e senza sconti, Benanti affronta uno dei nodi più delicati del nostro tempo: il modo in cui stiamo delegando alle macchine decisioni, linguaggio e fiducia senza aver prima costruito le regole per proteggerci.
Il punto centrale è chiaro e disturbante: non è la macchina il problema, siamo noi. Stiamo facendo domande sbagliate allo strumento sbagliato, attribuendo intenzioni, coscienza e perfino autorità morale a sistemi che non possiedono alcuna esperienza del mondo.
Benanti spiega perché i Large Language Model come ChatGPT non sono “intelligenze”, ma sistemi statistici sofisticati, e perché il vero rischio nasce quando una società fragile confonde output coerente con comprensione, risposta fluida con verità.
Questo intervento è fondamentale oggi perché l’IA è già nelle tasche di tutti, integrata negli smartphone, nei motori di ricerca, nelle decisioni quotidiane. Senza “caschi di protezione” culturali ed etici, il rischio non è fantascientifico: è antropologico e sociale.
🎯 A chi è rivolto il video
A chi usa ChatGPT e strumenti di IA ogni giorno
A genitori, educatori, formatori
A professionisti e decisori pubblici
A chi vuole capire l’IA oltre hype e propaganda
📌 Cosa imparerai concretamente
Perché l’IA non ha intenzioni, fini, valori
Perché attribuire umanità alle macchine è un errore cognitivo
Cosa significa davvero “etica dell’intelligenza artificiale”
Perché servono regole, limiti e responsabilità umane
Qual è il rischio reale per giovani e società impreparate
❓ Domande chiave affrontate
Possiamo fidarci di una macchina che non capisce?
Chi è responsabile quando un sistema automatizzato fa danni?
L’IA può influenzare emotivamente gli esseri umani?
È giusto delegare scelte vitali a un algoritmo?
Quale umanità vogliamo costruire con queste tecnologie?
💥 Idee messe in discussione
“L’IA è oggettiva e neutrale”
“Se funziona, va bene così”
“Il progresso non si può fermare”
“Basta la tecnica, l’etica viene dopo”
👉 Qui l’IA non viene demonizzata né idolatrata. Viene finalmente capita.
⏱️ CAPITOLI / TIMESTAMP
00:00 – ChatGPT e la morte: la domanda sbagliata allo strumento sbagliato
01:40 – Perché il problema non è la macchina, ma l’essere umano
03:10 – IA ≠ conoscenza: confondere statistica e sapere
04:20 – L’illusione della mente nella macchina
05:30 – Antropomorfismo e fragilità cognitive umane
06:50 – Il rischio emotivo: quando ci affezioniamo ai chatbot
08:30 – Perché servono “caschi” etici per l’IA
10:00 – IA ovunque: smartphone, linguaggio, decisioni
12:00 – Tecnologia senza regole: un esperimento sociale globale
14:30 – Delegare alle macchine: una scelta già fatta
17:00 – Etica, responsabilità e limiti dell’automazione
19:00 – Che tipo di umanità vogliamo diventare?
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: