Larson: «Sfatiamo la mitologia dell’intelligenza artificiale»
Difficulty: Medium    Uploaded: 2 years, 6 months ago by Mac     Last Activity: 5 months, 3 weeks ago
Fin
42 Units
100% Translated
100% Upvoted
Fabio Carducci - 23 octobre 2023.



Le chemin qui conduira à l'intelligence artificielle de niveau humain et ensuite à la super intelligence n'existe pour le moment que dans notre imagination. Il est faux que nous l'ayons désormais inéluctablement emprunté, et nous ne savons même pas où il se trouve. C'est la thèse à contre-courant, mais solidement argumentée, soutenue par l'écrivain et entrepreneur américain Erik J. Larson dans son ouvrage "Le mythe de l'intelligence artificielle" (Harvard University Press), publié depuis peu en italien par Franco Angeli. Figure singulière de technologue humaniste, Larson est en Italie ces temps-ci : après avoir été l'hôte, vendredi dernier du Festival de la Diplomatie à Rome, il interviendra le 25 octobre à Milan aux Digital Innovation Days. Né en 1971, il possède un doctorat de philosophie de l'Université du Texas à Austin, il a créé deux start-up financées par le Darpa (l'agence américaine de la défense) et travaillé à la Cycorp sur des projets d'IA et au Digital Media Collaboratory de George Kozmetsky.

- Pourquoi, selon vous l'intelligence artificielle est-elle un mythe ? N'est-elle pas, comme la présentent les médias, une technologie puissante capable de sauver ou de détruire le monde ?
Selon la perception qu'on en a en Californie, mais également dans le reste du monde, l'intelligence artificielle relève de la science-fiction, une sorte de Frankenstein, nous rêvons de créer quelque chose. Mais ce n'est pas réellement ce que nous sommes en train de faire Je suis dans le secteur depuis 20 ans, et ce que nous faisons est la création d'instruments. Au lieu de cela nous employons le langage, en parlant d'intelligence artificielle, pour masquer une série de sentiments humains, tels que le désir de certains de devenir encore plus riches.

L'intelligence artificielle est-elle un danger, une chance ou les deux à la fois ?
Je crois qu'il existe un danger, et c'est que de mauvaises personnes utilisent une technologie puissante, Un peu comme on le craignait dans les années 1950 au sujet des armes thermonucléaires. Mais elle est en somme un instrument nouveau et puissant qui n'a pas réellement d'esprit propre, qui ne prend pas de décision autonome, mais qui fait ce pourquoi elle a été conçue. C'est cette erreur de perception qui m'a poussé à écrire mon premier livre.

- Que peut nous dire de l'IA une approche humaniste et scientifique comme celle que vous préconisez ?
- Nous devons avant tout distinguer l'analyse de grandes bases de données du concept d'intelligence artificielle. Ce que nous faisons actuellement est l'analyse statistique des données de chacun d'entre nous. Et cette statistique est essentiellement la même que dans les années 60 avec l'ajout de quelques innovations comme les réseaux neuronaux (le soi-disant attention mechanism) introduits en 2017. Nous disposons aujourd'hui de super calculateurs, mais nous ne faisons que centraliser des données et les analyser statistiquement. Le problème c'est que nous sommes les données, et que ce qu'on appelle IA ce sont essentiellement des commentaires de ces données (data caption). Il ne me semble pas, de ce point de vue, que nous vivions jusqu'à présent dans un siècle particulièrement innovant, tandis que nous répétons d'anciennes erreurs avec de grandes entreprises centralisées et bureaucratiques.

- Pour expliquer la différence entre intelligences humaine et artificielle, vous distinguez les différents types de raisonnement... - En simplifiant, l'intelligence humaine connaît trois types de raisonnement (ou d'inférence) : le déductif, l'inductif et l'"intuitif" ou "abduction". L’intelligence artificielle a cherché depuis de nombreuses années, mais avec seulement quelques rares résultats, à simuler le raisonnement déductif. Puis est arrivé le Web avec l’énorme quantité de données disponible et le paradigme a complètement changé. Maintenant l’intelligence artificielle - comme par exemple ChatGpt - travaille sur le raisonnement inductif : beaucoup de données, des statistiques, un apprentissage automatique sur la base des données observées. Et les résultats sont extraordinaires : de la traduction automatique à la reconnaissance faciale ... Mais ce qui constitue l’essence même de l’intelligence humaine - la capacité de formuler des conjectures sur la base de peu d’indices, qui est à la base aussi bien du sens commun que des découvertes scientifiques - reste un mystère que l’intelligence artificielle n’a pas la moindre idée de comment le programmer.

Nous devons demander aux gouvernements, ou à Bruxelles ici en Europe, ou aux Nations Unies de légiférer sur l’IA, ou bien nous devrons nous en remettre à la capacité d’autorégulation du secteur privé ?
Je pense que personne au monde n’est encore capable de répondre à cette question, mais mon avis est que ce n’est pas un processus qui puisse s’autoréguler. C’est comme quand les voitures n’avaient pas d’air bags, et puis ils sont devenus obligatoires par la loi.

Vous qui êtes un chercheur spécialisé dans l’élaboration du langage naturel : comment voyez vous le futur de ce secteur, dominé dans le débat médiatique par le sujet ChatGpt?
Je crois qu’il y a des limites aus grands models actuels d’élaboration du langage naturel : je ne crois pas que nous verrons de si tôt un ChatGpt5, il ne reste pas suffisamment de nouvelles données. Pour le moment nous utiliserons des modèles connus pour des domaines spécifiques.

Votre prochain livre s’intitule ”Le retour. Pourquoi le XXIeme siècle ressemble au passé et non au futur que nous voulions ?”. Pourquoi ?
Je maintiens que, dans le monde dans lequel nous vivons, nous avons l’impression d’être sur la fusée spatiale du progrès alors que nous sommes bloqués dans les années 50. Il est difficile de lancer de nouveaux business qui changent le monde avec de petits capitaux : il faut des milliards de dollars. Et de ce point de vue, l’intelligence artificielle ne nous aidera sûrement pas. Mais je ne veux pas être seulement négatif, mon espoir est qu’un vrai processus d’innovation va repartir.
unit 1
Fabio Carducci - 23 ottobre 2023.
1 Translations, 1 Upvotes, Last Activity 1 year, 8 months ago
unit 3
unit 7
Perché secondo lei l’Intelligenza artificiale è un mito?
1 Translations, 2 Upvotes, Last Activity 5 months, 3 weeks ago
unit 8
Non è, come la descrivono i media, una potente tecnologia che può salvare o distruggere il mondo?
1 Translations, 2 Upvotes, Last Activity 5 months, 3 weeks ago
unit 10
Ma non è questo che stiamo davvero facendo.
1 Translations, 3 Upvotes, Last Activity 5 months, 3 weeks ago
unit 11
Sono nel settore da 20 anni, e quello che stiamo facendo è creare strumenti.
1 Translations, 2 Upvotes, Last Activity 5 months, 3 weeks ago
unit 13
L’intelligenza artificiale è un rischio, un’opportunità o entrambi?
1 Translations, 2 Upvotes, Last Activity 5 months, 3 weeks ago
unit 14
Credo che un rischio ci sia, ed è quello che la gente sbagliata usi una tecnologia potente.
2 Translations, 2 Upvotes, Last Activity 5 months, 3 weeks ago
unit 15
Un po’ come si temeva negli anni 50 del secolo scorso a proposito delle armi termonucleari.
1 Translations, 2 Upvotes, Last Activity 5 months, 3 weeks ago
unit 17
È questo errore di percezione che mi ha spinto a scrivere il mio primo libro.
1 Translations, 2 Upvotes, Last Activity 5 months, 3 weeks ago
unit 18
Che cosa può dirci sull’IA un approccio umanistico-scientifico come quello che lei sostiene?
1 Translations, 3 Upvotes, Last Activity 5 months, 3 weeks ago
unit 20
unit 32
È come quando le auto non avevano gli airbag, e poi sono diventati obbligatori per legge.
1 Translations, 1 Upvotes, Last Activity 5 months, 3 weeks ago
unit 35
Per il momento useremo i modelli noti per scopi specializzati.
1 Translations, 1 Upvotes, Last Activity 5 months, 3 weeks ago
unit 36
Il suo prossimo libro si intitola “Il ritorno.
1 Translations, 1 Upvotes, Last Activity 5 months, 3 weeks ago
unit 37
Perché il 21° Secolo assomiglia al passato, non al futuro che volevamo”.
1 Translations, 1 Upvotes, Last Activity 5 months, 3 weeks ago
unit 38
Perché?
1 Translations, 1 Upvotes, Last Activity 5 months, 3 weeks ago
unit 41
E da questo punto di vista l’intelligenza artificiale non sarà certo di aiuto.
1 Translations, 1 Upvotes, Last Activity 5 months, 3 weeks ago
unit 42
Ma non voglio essere solo negativo, il mio auspicio è che riparta un vero processo di innovazione.
1 Translations, 1 Upvotes, Last Activity 5 months, 3 weeks ago

Fabio Carducci - 23 ottobre 2023.

La strada che condurrà all’intelligenza artificiale di livello umano e poi alla super intelligenza esiste per ora solo nella nostra immaginazione. Non è vero che ormai l’abbiamo ineluttabilmente imboccata, anzi, non sappiamo neppure dove si trovi. É questa la tesi controcorrente, ma argomentata in modo stringente, sostenuta dallo scrittore e imprenditore americano Erik J. Larson nel suo Il mito dell’intelligenza artificiale (Harvard University Press), da poco pubblicato in italiano da Franco Angeli. Larson, singolare figura di tecnologo-umanista, è in questi giorni in Italia: venerdì scorso è stato ospite del Festival della Diplomazia a Roma, il 25 ottobre interverrà a Milano ai Digital Innovation Days. Classe 1971, ha un dottorato in filosofia all’Università del Texas ad Austin, ha creato due start-up finanziate da Darpa (l’agenzia della Difesa Usa) e lavorato per Cycorp su progetti di IA e con Digital Media Collaboratory di George Kozmetsky.

Perché secondo lei l’Intelligenza artificiale è un mito? Non è, come la descrivono i media, una potente tecnologia che può salvare o distruggere il mondo?
Per come viene percepita in California, ma anche nel resto del mondo, l’intelligenza artificiale è qualcosa di fantascientifico, una specie di Frankenstein, sogniamo di creare qualcosa. Ma non è questo che stiamo davvero facendo. Sono nel settore da 20 anni, e quello che stiamo facendo è creare strumenti. Invece usiamo il linguaggio, parlando di intelligenza artificiale, per mascherare una serie di sentimenti umani, come il desiderio di alcuni di diventare ancora più ricchi.

L’intelligenza artificiale è un rischio, un’opportunità o entrambi?
Credo che un rischio ci sia, ed è quello che la gente sbagliata usi una tecnologia potente. Un po’ come si temeva negli anni 50 del secolo scorso a proposito delle armi termonucleari. Ma in sostanza è un nuovo potente strumento che in realtà non ha una sua mente, non prende decisioni autonome, ma fa quello che è progettata per fare. È questo errore di percezione che mi ha spinto a scrivere il mio primo libro.

Che cosa può dirci sull’IA un approccio umanistico-scientifico come quello che lei sostiene?
Innanzitutto dobbiamo distinguere l’analisi di grandi basi di dati dal concetto di intelligenza artificiale. Quello che stiamo facendo per ora è prendere i dati di ciascuno di noi e analizzarli statisticamente. E questa statistica è sostanzialmente la stessa degli anni 60 con alcune innovazioni legate alle reti neurali (il cosiddetto attention mechanism) introdotte nel 2017. Ora abbiamo computer superveloci, ma quello che facciamo è centralizzare dati e analizzarli statisticamente. Il problema è che i dati siamo noi, e che quello che chiamiamo IA sono sostanzialmente didascalie di questi dati (data caption). Da questo punto di vista, non mi pare che siamo in un secolo particolarmente innovativo finora, mentre stiamo ripetendo vecchi errori con grandi corporation centralizzate e burocratiche.

Per spiegare le differenze tra intelligenza umana e artificiale lei fa riferimento alla distinzione tra diversi tipi di ragionamento…
Semplificando, l’intelligenza umana conosce tre tipi di ragionamento (o inferenza) quello deduttivo, quello induttivo e quello “intuitivo” noto come “abduzione”. L’intelligenza artificiale ha cercato per molti anni, ma con scarsi risultati, di simulare il ragionamento deduttivo. Poi è arrivato il web con l’enorme quantità di dati disponibili e il paradigma è radicalmente cambiato. Ora l’intelligenza artificiale – come ad esempio quella di ChatGpt - lavora sul ragionamento induttivo: big data, statistica, apprendimento automatico sulla base dei dati osservati. E i risultati sono straordinari: dalla traduzione automatica, al riconoscimento facciale … Ma quello che costituisce l’essenza dell’intelligenza umana – la capacità di formulare congetture sulla base di pochi indizi, che è alla base tanto del senso comune che delle scoperte scientifiche – resta un mistero che l’intelligenza artificiale non ha la minima idea di come programmare.

Dobbiamo chiedere ai governi, o a Bruxelles qui in Europa, o alle Nazioni Unite di regolare l’IA, o dobbiamo rimetterci alla capacità di autoregolamentazione del settore privato?
Credo che nessuno al mondo sia ancora in grado di rispondere a questa domanda, ma la mia opinione è che questo non sia un processo che si possa auto regolare. È come quando le auto non avevano gli airbag, e poi sono diventati obbligatori per legge.

Lei è anche un ricercatore specializzato nell’elaborazione del linguaggio naturale: come vede il futuro di questo settore, dominato nel dibattito mediatico dal tema ChatGpt?
Credo che ci siano limiti agli attuali grandi modelli di elaborazione del linguaggio naturale: non credo che vedremo presto un ChatGpt5, non sono rimasti abbastanza nuovi dati. Per il momento useremo i modelli noti per scopi specializzati.

Il suo prossimo libro si intitola “Il ritorno. Perché il 21° Secolo assomiglia al passato, non al futuro che volevamo”. Perché?
Sostengo che nel mondo in cui viviamo ci sembra di essere sul razzo spaziale del progresso, mentre siamo bloccati negli anni 50. È difficile avviare nuovi business che cambino il mondo con piccoli capitali: servono miliardi di dollari. E da questo punto di vista l’intelligenza artificiale non sarà certo di aiuto. Ma non voglio essere solo negativo, il mio auspicio è che riparta un vero processo di innovazione.