AI news:

il portale di approfondimento sul mondo dell'intelligenza artificiale

AI news: il portale di approfondimento sul mondo dell'intelligenza artificiale

Le tre leggi della robotica: evoluzioni e applicazioni

leggi della robotica

La questione riguardante il rapporto tra uomo e macchina ha suscitato curiosità fin dai tempi in cui i robot, capaci di sostituire l’essere umano, erano solo frutto dell’immaginazione dei più grandi scrittori. Fantascienza e niente più.

Arrivando ai giorni nostri, l’efficienza e l’oggettività delle macchine in grado di aumentare le proprie competenze grazie al machine learning (ovvero l’apprendimento automatico delle proprie capacità) e lo sviluppo di intelligenze artificiali con potenzialità quasi infinite, ci ha fatto entrare in un’epoca in cui è sempre più frequente il dibattito etico se possano sostiture completamente l’uomo, possano entrare in conflitto con esso o possano semplicemente essere d’ausilio e garantire vantaggi.

In questo articolo, approfondiamo il tema delle leggi della robotica, da Isaac Asimov a Frank Pasquale.

Le tre leggi della robotica di Isaac Asimov

Lo scrittore Isaac Asimov, in un racconto pubblicato in una rivista scientifica nel 1942, dettò tre norme conosciute come “le tre leggi della robotica”. Per far comprendere che i robot sono concepiti come strumenti di assistenza per l’uomo e non per sostituirlo.

  1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e con la Seconda Legge.

L’intenzione di Asimov era certamente quella di promuovere il messaggio di utilizzare la tecnologia in modo etico e non per fini nocivi. Alan Winfield, professore presso il Bristol Robotics Laboratory, ha progettato dei robot seguendo le leggi della robotica: l’automa doveva essere in grado di salvare delle vite umane entrate in un’area chiamata “Hole”. L’esperimento doveva dimostrare come una macchina dotata di intelligenza artificiale, grazie all’etica impartita dalle tre leggi, ponesse l’uomo, il suo volere e la sua salvaguardia al di sopra di tutto. La lentezza nel ragionamento del robot, causata da una tecnologia ancora non sviluppata del tutto, non gli ha consentito però di salvarli.

Le nuove leggi della robotica

Frank Pasquale, tra i maggiori esperti al mondo in materia di regolamentazione delle nuove tecnologie e professore alla Brooklyn Law School, ha provato ad attualizzare le tre leggi di Asimov nel suo saggio “Le nuove leggi della robotica. In questo saggio, l’autore si pone numerosi interrogativi, il più interessante dei quali è “ci sarà spazio per la nostra specie in un mondo del lavoro dominato da macchine sempre più intelligenti?”.

Secondo Pasquale, descrive il libro, i sistemi robotici e le intelligenze artificiali devono essere complementari ai professionisti, e non sostituirli; non devono contraffare l’umanità, favorendo la falsa idea che chi interagisce con loro si stia rapportando a un essere umano; non devono, inoltre, intensificare la corsa agli armamenti; infine, devono sempre indicare con massima trasparenza l’identità dei loro creatori, controllori e proprietari.

Seguendo queste direttive, nelle intenzioni di Pasquale, governi, imprese e semplici cittadini potranno creare insieme un futuro migliore nel quale le tecnologie tenderanno ad essere inclusive, democratiche e capaci di riflettere impegno e speranze di tutti, come lavoratori e cittadini, e non solo come consumatori.

In quali occasioni i robot hanno già superato l’uomo

Come abbiamo visto con l’esperimento di Alan Winfield, nonostante le nobili intenzioni da parte del ricercatore, non ci sono mai state effettive applicazioni delle tre leggi in interventi che abbiano potuto mostrare come una macchina potesse superare l’uomo in tutti i suoi aspetti.

Recentemente, tuttavia, l’intelligenza artificiale è riuscita a porsi sopra il fattore umano, in ambiti molto specifici. Vediamo come. In una guerra simulata, un sistema di intelligenza artificiale ha battuto uno dei piloti migliori dell’US Air Force in un combattimento virtuale. Un F16 pilotato dall’AI ha abbattuto per ben 5 volte l’aereo pilotato dal pilota americano senza che quest’ultimo sia riuscito a colpire almeno una volta l’avversario. Secondo Jim Mock (DARPA), dell’agenzia del governo americano che si occupa di progetti speciali in ambito militare, l’IA avrebbe dimostrato un’abilità sovrumana ai comandi dell’F16, compiendo manovre impossibili per un pilota in carne ed ossa. Il super pilota elettronico vincitore della speciale competizione per piloti da caccia digitali indetta dalla stessa DARPA è stato realizzato da Heron Systems.

Ci sono però alcune tesi secondo le quali l’aereo pilotato dall’intelligenza artificiale sia stato avvantaggiato dal fatto che la battaglia si sia svolta in un campo virtuale. Altri sostengono il contrario, ovvero che un campo simulato porterebbe sullo stesso piano uomo e macchina poichè l’uomo potrebbe fare manovre che nella realtà a causa di accelerazioni insostenibili non sarebbe in grado di fare.

Il fattore umano può coesistere con l’intelligenza artificiale?

Considerando che il fattore umano è e sarà sempre determinante, Carl Benedikt Frey, storico ed economista e co-direttore dell’Oxford Martin Programme su tecnologia e lavoro , nel suo libro “The tecnology trap, capital, labor, and power in the Age of automation”, afferma che:

L’impatto di intelligenza artificiale e automazione sul lavoro è simile a quanto avvenne due secoli fa con la prima rivoluzione industriale in Inghilterra.

Carl Benedikt Frey

Una rivoluzione epocale che si sta realizzando proprio sotto ai nostri occhi.