Oggi il concetto di privacy è sempre più minacciato dalle nuove tecnologie, come l’Intelligenza Artificiale generativa, ma non solo. Proiettandoci nel futuro, l’AI che gestirà i Big Data avrà miliardi di occhi, orecchie e altri sensori che agiranno direttamente sol mondo fisico e non solo attraverso uno schermo o una tastiera. Se pensiamo che i robot umanoidi potranno essere non solo infermieri, ma anche soldati in grado di uccidere, il futuro dell’intera umanità potrebbe non essere così roseo. «Soluzioni facili a problemi complessi non ce ne sono. L’unica possibile è che noi umani consapevoli ci occupiamo dello sviluppo della robotica da un punto di vista etico, cioè sviluppiamo una Roboetica per cercare di tenere in pugno lo sviluppo della tecnologia robotica e non lasciarla nelle mani di corporation, militari e civili, procedendo in maniera dissennata sempre verso lo stesso burrone», dice Gianmarco Veruggio, scienziato robotico, Fondatore della Scuola di Robotica e padre della Roboetica, tra i relatori del seminario sull’AI Act, la Legge di Regolamentazione dell’Intelligenza Artificiale.
Health e robotica: le sfide dell’etica medica
Parlando di robot dal punto di vista delle loro applicazioni nell’ambito medico, una delle grandi tematiche da affrontare è quella legata agli aspetti etici e legali. Gli scienziati individuano tre importanti fattori: il robot per intervento, per assistenza (il robot infermiere) e il bio-robot. In questo contesto si inserisce la biorobotica, branca che si prefigge di realizzare parti robotiche da innestare sul corpo umano: arti robotici per sostituire arti perduti, organi robotici (cuore, fegato, ecc…) o gli occhi (per esempio gli occhi bionici). La mission è sviluppare parti che possono essere collegati al corpo umano in modo più naturale possibile, governati con il pensiero. Attraverso i robot, il corpo è in grado di intercettare i segnali nervosi e interpretarli attraverso motorini di vario genere, rendendo possibile il ripristino delle funzionalità. «Da questi esempi si possono capire quanti problemi etici possono sorgere al confine e in sovrapposizione dell’etica medica».
Robotica chirurgica: tra alleanza medica e responsabilità penale
Applicare i robot nel comparto sanitario porta benefici, ma occorre sorvegliare gli abusi. Negli ultimi anni sono aumentati i riflettori puntati sulla questione etica e medicina, in particolare, le questioni che riguardano la robotica chirurgica. In questo contesto, uno dei settori che saranno maggiormente chiamati in causa sarà il diritto. Chi sarà ritenuto responsabile delle azioni dei robot? Il progettista? L’utente? Il robot? Negli ultimi anni sono stati sviluppati numerosi progetti internazionali con lo scopo di affrontare tutti gli aspetti problematici della rivoluzione robotica, per esempio, il progetto europeo RoboLaw “Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics” 2012-2014.
Cos’è Robolaw?
Lo scopo principale del progetto RoboLaw è quello di indagare i modi in cui le tecnologie emergenti nel campo della (bio)robotica (ad esempio bionica, interfacce neurali e nanotecnologie) hanno un impatto sul contenuto, sul significato e sull’impostazione della legge. Verranno analizzate le interrelazioni tra le norme tecniche, giuridiche e morali in questo campo, al fine di definire quale potrebbe essere il miglior equilibrio tra di esse e di promuovere una base tecnicamente fattibile, ma anche eticamente e legalmente solida per i futuri sviluppi della robotica. Altri elementi chiave di questa ricerca sono la scoperta dei valori etici incorporati nelle tecnologie robotiche e l’identificazione delle questioni etiche derivanti dal loro utilizzo.
AI Act: dubbi sul futuro
Il 13 marzo scorso, il Parlamento Europeo ha approvato in via definitiva l’AI Act (Artificial Intelligence Act). Si tratta del primo regolamento europeo sull’Intelligenza Artificiale con l’obiettivo di disciplinare a livello normativo e globale l’immissione e l’utilizzo di strumenti di elevata tecnologia nell’area UE. L’AI rappresenta una delle tecnologie informatiche più innovative che ha rivoluzionato il modo con il quale l’uomo interagisce con la macchina e le macchine tra loro.
La mission è simulare i processi di intelligenza umana. «Tirando fuori un po’ di critiche, vedo qualche limite o timidezza nelle enunciazioni», ha sottolineato Veruggio durante il seminario. «Si parla genericamente di rispetto di diritti umani e di protezione della vita. Ma anche quando si accenna alla supervisione dell’essere umano, non è chiarito fino in fondo che un robot o un’Intelligenza Artificiale non debbano poter mai decidere in modo autonomo della vita o della morte di una persona – ha aggiunto -. Questo può valere per un sistema medico, ma anche per qualunque altro sistema, compreso i sistemi militari». Secondo lo scienziato c’è un altro punto debole: «I governi hanno delle esenzioni estremamente elastiche che in qualche modo, data la varietà dei sistemi politici in Europa, rende questa protezione dei diritti del cittadino abbastanza fragile». Inoltre, non bisogna dimenticare che l’AI Act è stato pensato nel 2021, quando l’era dell’Intelligenza Artificiale generativa non era ancora iniziata.
La rivoluzione tech e l’avvento della medicina 4.0 hanno posto numerose domande dal punto di vista etico, psicologico, sociale e legale. Sono ancora molti i dubbi, i rischi e le incertezze che ruotano attorno alle nuove tecnologie. Cosa deve o non deve fare un robot? Chi deve programmarlo? Il 13 marzo scorso, con il via libera all’AI Act, è stato fatto un primo timido passo nella regolamentazione tra uomo e macchina e tra macchine, ma la strada da percorrere è ancora molto lunga.