Back

Le Intelligenze Artificiali

L’intelligenza artificiale è uno dei più affascinanti argomenti messi in campo in questo periodo storico. Pochi quesiti toccano tante competenze e aspetti della cultura e società come la domanda “Può una macchina pensare?”.

“Se un computer possa pensare è una faccenda non più interessante di quella riguardante se un sottomarino possa nuotare” - E. W. Dijkstra

Da un lato l’intelligenza artificiale è uno dei cosidetti “argomenti di confine” fra filosofia e scienza (citando Artigas quegli argomenti che permettono un ponte in quanto contatto bidirezionale fra le discipline): inquadrandosi nel generale inquadramento dell’antico problema filosofico “mente-cervello”, lo studio e lo sviluppo della sua declinazione informatica ne permette studi e contaminazioni sotto diversi aspetti delle scienze dure, dalla teoria dell’informazione all’algoritmica, purgando le complicazioni neurologiche insite in uno studio in vivo.
Dall’altro le conseguenze sociali della sempre maggiore indipendenza delle macchine, che si riflette attualmente in una forte crisi lavorativa del terziario a livello globale, già ora pongono quesiti politici sempre più pressanti e diversi scenari futuribili si profilano all’orizzonte.

Sarebbe assurdo se si parlasse di automobili senza sapere che esse hanno le ruote e funzionano con carburante, eppure si parla di I.A. considerando i possibili approcci e algoritmi come materia da tecnici che nulla hanno che vedere con le possibili implicazioni. Si discute della sua fattibilità filosofica o conseguenze sociologiche senza che sia ben chiaro da dove un eventuale “io sintetico” possa praticamente derivare seguendo quali approcci, e le loro differenze e i limiti.

Fare un completo resoconto delle ricerche in atto nel campo è al di fuori dello scopo e dimensione di qualunque blogpost. Non esiste un approccio univoco e consolidato e data l’importanza dell’argomento le ricerche si espandono e moltiplicano proporzionalmente agli enormi fondi e numero di ricercatori coinvolti. Personalmente credo che le dozzine di diversi approcci, molti dei quali ibridi, siano divisibili in quattro diverse categorie di cui è importante apprezzare le differenze prima di poter imbastire una discussione a riguardo.

  1. Simulativo, o di neuroscienza computazionale
  2. Simbolico, o logico-cognitivo
  3. Statistico
  4. Fondamentale

L’approccio di neuroscienza computazionale cerca di simulare il cervello e la fisiologia di un organismo a livello fisico-chimico. Esattamente come altri sistemi fisici possono essere modellizzati computazionalmente, con le dovute approssimazioni, lo stesso può valere per la simulzione di un organismo biologico e di sue parti. La riproduzione dell’intero spettro di comportamenti di un organismo è lo scopo possibile con questo tipo di progetto: gli altri approcci creano qualcosa di unico che non ha corrispondente nel mondo biologico, mentre una simulazione, procedendo in modo analogico con la realtà, ha la possibilità di riprodurla e quindi di chiarire differenze specifiche fra un organismo e l’altro. I progressi sono garantiti dalla legge di Moore e la progressione della capacità computazionale, che permette sempre più sofisticate simulazioni di sistemi più complessi. E sulla strada per una “perfetta” simulazione, (ancora lontana dall’orizzonte per i mammiferi e uomo in particolare, dato che le simulazioni del più semplice organismo dotato di cervello, il verme C. Elegans, di cui una opensource non riescono ancora a riprodurre l’intero spettro di comportamenti di cui C. Elegans è capace) molte cose si possono apprendere, come ad esempio dal controverso Human Brain Project europeo da 1 miliardo di euro sono state recentemente scoperte sconosciuti sistemi di gestione dell’energia all’interno del cervello umano.

Il sistema simbolico cerca di sviluppare sistemi astratti di elaborazione dell’informazione costruendo algoritmi con un linguaggio adeguato. Ovvero partendo dalle definizioni della logica che il sistema userà e fornendo regole per le relazioni fra enti in input (la parte cognitiva) è possibile programmare strutture elaborative automatiche che assolvono a diversi scopi. Ad esempio un sistema di cui vengono fornite regole del calcolo e opportune regole logiche quantitative potrà eseguire calcolo simbolico. Un sistema programmato con una logica più flessibile (ad esempio modale o paraconsistente) sarà un buon sistema per l’interpretazione del linguaggio. Nell’investigare possibili definizioni sintetiche di intelligenza e' possibile riscontrare comportamenti spontaneanei, ovvero non preventivamente impostati ne' prevedibili, soluzioni autonome di indovinelli come “test di autocoscienza” inclusi.

L’approccio statistico è quello più utilizzato attualmente per sviluppare algoritmi flessibili operativi. Prendendo sistemi biologici e logici a ispirazione si costruiscono algoritmi adattativi, che cioè abbiano dei criteri fondamentali per stabilire se un’azione si muove nella direzione desiderata e che poi costruiscano una rete di relazioni fra le azioni, definita rete neurale, in modo autonomo o solo parzialmente assistito. Esplorino insomma la causalità dello spazio in cui si trovano ad operare, in funzione di un obiettivo. Un ottimo esempio, sufficientemente semplice per essere seguito e compreso, con relativa spiegazione, è come questo algoritmo “impari” a giocare a Super Mario dopo poche modifiche. Come si nota nel video, inizialmente la rete neurale non sa di dover schiacciare il pulsante destro, e rimane fermo. Modifiche casuali della rete neurale implicano che l’algoritmo schiacci il tasto destro (e solo quello) fino alla sua morte ma questo già comporta che questa specifica rete neurale viene selezionata, poichè schiacciare il tasto destro fa progredire nel livello più che stare fermi o saltare sul posto. Modifiche successive fanno realizzare che è necessario saltare in certe condizioni per schivare i nemici o evitare di cadere, finchè la rete neurale non diventa sufficientemente sofisticata da finire il livello. Reti neurali più sofisticate, come DeepMind realizzata dai ricercatori Google sono sufficientemente flessibili da poter efficacemente giocare a una serie di 49 giochi classici, senza che il programmatore insegni alcuna strategia, ma lasciandola imparare da se lasciando il computer “allenarsi”, premiando esclusivamente il punteggio. Ovviamente le applicazioni delle reti neurali e, più in generale, dell’approccio statistico all’I.A. non si limitano alla teoria dei giochi. Al contrario sono le tipologie di algoritmi più versatili e utilizzati, che letteralmente ci circondano e migliorano la nostra vita. Riconoscimento, interpretazione e traduzione linguistica e vocale (da Google Translate a Siri), dalle alle auto a guida autonoma ai filtri per lo spam.

Un approccio ibrido fra quello statistico e quello simbolico ottiene i risultati più interessanti, in termini applicativi, come Wolfram Language (Mathematica e Wolfram Alpha) ed il versatilissimo assistente professionale Watson di IBM che sta avendo successo sia come medico che come chef.

In ultima analisi è anche possibile ripensare la costruzione di una intelligenza artificiale in modo costruttivista, cioè basandosi sulla configurazione fisica delle strutture che danno origine ad intelligenza e coscienza. Questo metodo spesso cerca di trascendere i limiti imposti da transistor ed elettronica digitale, costituzionalmente inscindibile da una logica binaria e difficilmente impletabile in modo _consistentemente retroazionato. _Ovvero le approssimazione pratiche necessarie alla scrittura delle metodologie simboliche e simulative, non permetterebbero progressi sostanziali, e quindi l’intero hardware di una intelligenza artificiale dovrebbe essere costruito per funzionare in modo altamente connesso e non limitato alla rappresentazione binaria dell’era digitale e la sua relativa programmazione.

“Può una macchina pensare”, quindi?
La risposta, a questo punto, dovrebbe essere ovvia: “Quale macchina?"

Per commenti, scrivimi ad andrea (punto) idini (at) gmail (punto) com. Static web, no cookies collected.