Sembra che un mese non trascorra senza che una persona di alto profilo commenti il potenziale per macchine con Intelligenza Artificiale di conquistare il mondo. Elon Musk dice che i sistemi di intelligenza artificiale sono "potenzialmente più pericolosi delle armi nucleari". Ma non è l'unico, Stephen Hawking è anche preoccupato: "Lo sviluppo della piena intelligenza artificiale potrebbe significare la fine della razza umana" Il professor Hawking ha detto alla BBC. "Decollerebbe da solo e riprogetterebbe se stesso a un ritmo sempre crescente." Anche Bill Gates è preoccupato, "Sono nel campo preoccupato per la super intelligenza. Sono d'accordo con Elon Musk e alcuni altri su questo e non capisco perché alcune persone non siano interessate. "
Sono tutti preoccupati per la possibilità che potenti sistemi di IA abbiano conseguenze indesiderate o potenzialmente disastrose. A gennaio, Elon Musk ha donato 10 milioni di dollari al Future of Life Institute (FLI) per gestire un programma di ricerca globale volto a mantenere l'IA benefica per l'umanità.
Oggi il Future of Life Institute ha annunciato di aver stanziato $ 7 milioni in fondi per 37 team di ricerca in tutto il mondo in modo che la società possa raccogliere i benefici dell'IA, evitando l'apocalisse e la fine della vita sulla terra.
Il pericolo con lo scenario Terminator non è che ciò accada, ma che distrae dai problemi reali posti dalla futura IA.
Jaan Tallin, uno dei membri fondatori della FLI e il ragazzo che ha scritto la versione originale di Skype, ha dichiarato della nuova ricerca, "costruire un'IA avanzata è come lanciare un razzo. La prima sfida è quella di massimizzare l'accelerazione, ma una volta che inizia a prendere velocità, devi anche concentrarti sullo sterzo ".
Tra i 37 progetti ci sono tre progetti che esamineranno le tecniche per consentire ai sistemi di intelligenza artificiale di imparare ciò che gli umani preferiscono osservando il nostro comportamento. Uno di questi progetti sarà eseguito presso l'UC Berkeley e uno sarà all'Università di Oxford.
Benja Fallenstein, presso il Machine Intelligence Research Institute, sta guadagnando $ 250.000 per cercare modi per mantenere gli interessi dei sistemi superintelligenti in linea con i valori umani. Mentre il team di Manuela Veloso, della Carnegie-Mellon University, riceverà $ 200.000 per vedere come far spiegare ai propri sistemi umani le loro decisioni agli umani.
Altri progetti includono uno studio di Michael Webb della Stanford University su come mantenere utili gli impatti economici dell'IA, un progetto su come mantenere le armi guidate dall'intelligenza artificiale sotto un "controllo umano significativo" e un nuovo centro di ricerca Oxford-Cambridge per studiare l'IA -politica pertinente.
Parlando di Hollywood, il FLI sta cercando di dissociarsi dall'apocalisse. Il FLI desidera sottolineare l'importanza di separare i fatti dalla finzione. "Il pericolo con lo scenario Terminator non è che ciò accada, ma che distrae dai problemi reali posti dalla futura IA", ha dichiarato Max Tegmark, presidente di FLI. "Rimaniamo concentrati e i 37 team supportati dalle sovvenzioni di oggi dovrebbero aiutare a risolvere tali problemi reali".
Cosa pensi? Soldi ben spesi?