Larson: «Sfatiamo la mitologia dell’intelligenza artificiale»
Difficulty: Medium    Uploaded: 2 years, 5 months ago by Mac     Last Activity: 1 year, 3 months ago
Fin
42 Units
100% Translated
100% Upvoted
Fabio Carducci - October 23, 2023.



For now, the path leading to human-level artificial intelligence and then to super intelligence exists only in our imagination. It is not true that we have already ineluctably taken it, indeed, we do not even know where it is. This is the non-mainstream, but strongly argued, thesis supported by the American writer and entrepreneur Erik J. Larson in his The Myth of Artificial Intelligence (Harvard University Press), recently published in Italian by Franco Angeli. Larson, a unique figure of humanist-technologist, is currently in Italy: last Friday he was a guest of the Festival of Diplomacy in Rome, on October 25, he will speak he will speak in Milan, at the Digital Innovation Days. Born in 1971, he has a doctorate in philosophy from the University of Texas at Austin, he has created two start-ups funded by Darpa (the US Defense Agency) and worked for Cycorp on AI projects, and on George Kozmetsky's Digital Media Collaboratory.

Why do you think artificial intelligence is a myth? Isn't it, as the media describe it, a powerful technology that can save or destroy the world?
As it is perceived in California, but also in the rest of the world, artificial intelligence is a science-fiction thing, a kind of Frankenstein, we dream of creating something. But that's not really what we are doing. I’ve been in the field for 20 years, and what we’re doing is creating tools. Insted, talking about artificial intelligence, we use language to mask a series of human feelings such as some people's desire to become even richer.

Is artificial intelligence a risk, an opportunity or both?
I think there’s a risk, and that’s that the wrong people should use a powerful technology. A little like the fear there was in the 1950s about thermonuclear weapons. But basically, this is a powerful new tool that doesn’t actually have a mind of its own, does not make autonomous decisions, but does what it is designed to do. It is this misperception that led me to write my first book.

What can a humanistic-scientific approach, like the one you uphold, tell us about AI?
First of all, we must make a distinction between the analysis of large databases and the concept of artificial intelligence. What we are doing for now is taking the data from each of us and analyzing it statistically. This statistic is basically the same as in the 1960s, with some innovations related to neural networks (the so-called attention mechanism) introduced in 2017. We now have superfast computers, but we centralize and analyze data statistically. The problem is that we are the data, and what we call AI are captions of this data. In this respect, I do not feel that we are in a particularly innovative century so far. We are repeating old mistakes with large centralized and bureaucratic corporations.

To explain the differences between human and artificial intelligence, you refer to the distinction between different types of reasoning... Simplifying, human intelligence knows three types of reasoning (or inference): the deductive, the inductive, and the “intuitive” type known as “abduction.” Artificial intelligence has tried to simulate deductive reasoning for many years but with poor results. Then came the Web with enormous data available, and the paradigm radically changed. Artificial intelligence, such as ChatGpt, works on inductive reasoning using big data, statistics, and machine learning based on observed data. And the results are extraordinary: from machine translation to facial recognition ... But what constitutes the essence of human intelligence-the ability to make conjectures based on a few clues, which underlies both common sense and scientific discoveries-remains a mystery that artificial intelligence has no idea how to program.

Should we ask governments, Brussels in Europe, or the United Nations to regulate AI, or should we defer to the private sector's self-regulatory capacity?
I don't think anyone in the world can answer this question yet, but I believe it is not a self-regulating process. It's like when cars didn't have airbags, and then they became mandatory by law.

You are also a researcher specializing in natural language processing. How do you see the future of this field, which has been dominated in the media debate by the ChatGpt issue?
The current sizeable natural language processing models have limits. I don't think we will see a ChatGpt5 anytime soon; there is not enough new data. For now, we will use the known models for specialized purposes.

His next book is titled “The Return. Because the 21st Century looks like the past, not the future we wanted.” Why?
I argue that in the world we live in we feel like we are on the space rocket of progress, while we are stuck in the 1950s. It is difficult to start new, world-changing businesses with small capital-it takes billions of dollars. In this respect, artificial intelligence will certainly not help. But I don't want to be only negative; I hope that an actual innovation process will start again.
unit 1
Fabio Carducci - 23 ottobre 2023.
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 7
Perché secondo lei l’Intelligenza artificiale è un mito?
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 8
Non è, come la descrivono i media, una potente tecnologia che può salvare o distruggere il mondo?
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 10
Ma non è questo che stiamo davvero facendo.
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 11
Sono nel settore da 20 anni, e quello che stiamo facendo è creare strumenti.
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 13
L’intelligenza artificiale è un rischio, un’opportunità o entrambi?
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 14
Credo che un rischio ci sia, ed è quello che la gente sbagliata usi una tecnologia potente.
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 15
Un po’ come si temeva negli anni 50 del secolo scorso a proposito delle armi termonucleari.
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 17
È questo errore di percezione che mi ha spinto a scrivere il mio primo libro.
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 18
Che cosa può dirci sull’IA un approccio umanistico-scientifico come quello che lei sostiene?
1 Translations, 1 Upvotes, Last Activity 1 year, 3 months ago
unit 32
unit 35
Per il momento useremo i modelli noti per scopi specializzati.
1 Translations, 1 Upvotes, Last Activity 9 months ago
unit 36
Il suo prossimo libro si intitola “Il ritorno.
1 Translations, 1 Upvotes, Last Activity 9 months ago
unit 37
Perché il 21° Secolo assomiglia al passato, non al futuro che volevamo”.
1 Translations, 1 Upvotes, Last Activity 9 months ago
unit 38
Perché?
1 Translations, 1 Upvotes, Last Activity 9 months ago
unit 41
E da questo punto di vista l’intelligenza artificiale non sarà certo di aiuto.
1 Translations, 1 Upvotes, Last Activity 9 months ago

Fabio Carducci - 23 ottobre 2023.

La strada che condurrà all’intelligenza artificiale di livello umano e poi alla super intelligenza esiste per ora solo nella nostra immaginazione. Non è vero che ormai l’abbiamo ineluttabilmente imboccata, anzi, non sappiamo neppure dove si trovi. É questa la tesi controcorrente, ma argomentata in modo stringente, sostenuta dallo scrittore e imprenditore americano Erik J. Larson nel suo Il mito dell’intelligenza artificiale (Harvard University Press), da poco pubblicato in italiano da Franco Angeli. Larson, singolare figura di tecnologo-umanista, è in questi giorni in Italia: venerdì scorso è stato ospite del Festival della Diplomazia a Roma, il 25 ottobre interverrà a Milano ai Digital Innovation Days. Classe 1971, ha un dottorato in filosofia all’Università del Texas ad Austin, ha creato due start-up finanziate da Darpa (l’agenzia della Difesa Usa) e lavorato per Cycorp su progetti di IA e con Digital Media Collaboratory di George Kozmetsky.

Perché secondo lei l’Intelligenza artificiale è un mito? Non è, come la descrivono i media, una potente tecnologia che può salvare o distruggere il mondo?
Per come viene percepita in California, ma anche nel resto del mondo, l’intelligenza artificiale è qualcosa di fantascientifico, una specie di Frankenstein, sogniamo di creare qualcosa. Ma non è questo che stiamo davvero facendo. Sono nel settore da 20 anni, e quello che stiamo facendo è creare strumenti. Invece usiamo il linguaggio, parlando di intelligenza artificiale, per mascherare una serie di sentimenti umani, come il desiderio di alcuni di diventare ancora più ricchi.

L’intelligenza artificiale è un rischio, un’opportunità o entrambi?
Credo che un rischio ci sia, ed è quello che la gente sbagliata usi una tecnologia potente. Un po’ come si temeva negli anni 50 del secolo scorso a proposito delle armi termonucleari. Ma in sostanza è un nuovo potente strumento che in realtà non ha una sua mente, non prende decisioni autonome, ma fa quello che è progettata per fare. È questo errore di percezione che mi ha spinto a scrivere il mio primo libro.

Che cosa può dirci sull’IA un approccio umanistico-scientifico come quello che lei sostiene?
Innanzitutto dobbiamo distinguere l’analisi di grandi basi di dati dal concetto di intelligenza artificiale. Quello che stiamo facendo per ora è prendere i dati di ciascuno di noi e analizzarli statisticamente. E questa statistica è sostanzialmente la stessa degli anni 60 con alcune innovazioni legate alle reti neurali (il cosiddetto attention mechanism) introdotte nel 2017. Ora abbiamo computer superveloci, ma quello che facciamo è centralizzare dati e analizzarli statisticamente. Il problema è che i dati siamo noi, e che quello che chiamiamo IA sono sostanzialmente didascalie di questi dati (data caption). Da questo punto di vista, non mi pare che siamo in un secolo particolarmente innovativo finora, mentre stiamo ripetendo vecchi errori con grandi corporation centralizzate e burocratiche.

Per spiegare le differenze tra intelligenza umana e artificiale lei fa riferimento alla distinzione tra diversi tipi di ragionamento…
Semplificando, l’intelligenza umana conosce tre tipi di ragionamento (o inferenza) quello deduttivo, quello induttivo e quello “intuitivo” noto come “abduzione”. L’intelligenza artificiale ha cercato per molti anni, ma con scarsi risultati, di simulare il ragionamento deduttivo. Poi è arrivato il web con l’enorme quantità di dati disponibili e il paradigma è radicalmente cambiato. Ora l’intelligenza artificiale – come ad esempio quella di ChatGpt - lavora sul ragionamento induttivo: big data, statistica, apprendimento automatico sulla base dei dati osservati. E i risultati sono straordinari: dalla traduzione automatica, al riconoscimento facciale … Ma quello che costituisce l’essenza dell’intelligenza umana – la capacità di formulare congetture sulla base di pochi indizi, che è alla base tanto del senso comune che delle scoperte scientifiche – resta un mistero che l’intelligenza artificiale non ha la minima idea di come programmare.

Dobbiamo chiedere ai governi, o a Bruxelles qui in Europa, o alle Nazioni Unite di regolare l’IA, o dobbiamo rimetterci alla capacità di autoregolamentazione del settore privato?
Credo che nessuno al mondo sia ancora in grado di rispondere a questa domanda, ma la mia opinione è che questo non sia un processo che si possa auto regolare. È come quando le auto non avevano gli airbag, e poi sono diventati obbligatori per legge.

Lei è anche un ricercatore specializzato nell’elaborazione del linguaggio naturale: come vede il futuro di questo settore, dominato nel dibattito mediatico dal tema ChatGpt?
Credo che ci siano limiti agli attuali grandi modelli di elaborazione del linguaggio naturale: non credo che vedremo presto un ChatGpt5, non sono rimasti abbastanza nuovi dati. Per il momento useremo i modelli noti per scopi specializzati.

Il suo prossimo libro si intitola “Il ritorno. Perché il 21° Secolo assomiglia al passato, non al futuro che volevamo”. Perché?
Sostengo che nel mondo in cui viviamo ci sembra di essere sul razzo spaziale del progresso, mentre siamo bloccati negli anni 50. È difficile avviare nuovi business che cambino il mondo con piccoli capitali: servono miliardi di dollari. E da questo punto di vista l’intelligenza artificiale non sarà certo di aiuto. Ma non voglio essere solo negativo, il mio auspicio è che riparta un vero processo di innovazione.