Wall Street e l’intelligenza artificiale: tra opportunità e rischi economici

Wall Street e l’intelligenza artificiale: tra opportunità e rischi economici
Intelligenza artificiale

L’intelligenza artificiale (IA) ha rivoluzionato innumerevoli settori, quali la medicina, l’automazione industriale, l’intrattenimento e la finanza. Tuttavia, nonostante le sue indiscutibili potenzialità, emergono legittime preoccupazioni riguardo ai rischi che essa potrebbe comportare, soprattutto nel delicato settore finanziario.

Gary Gensler, presidente della Securities and Exchange Commission (SEC), ha recentemente espresso gravi timori riguardanti l’adozione precipitosa dell’IA da parte di Wall Street. In un’intervista rilasciata al Financial Times, Gensler ha sottolineato come l’IA potrebbe costituire la miccia di una futura crisi finanziaria. Secondo il suo punto di vista, è “quasi inevitabile” che l’IA possa scatenare un crollo finanziario entro la fine degli anni 2020 o l’inizio degli anni 2030. La crescente dipendenza da modelli sviluppati da aziende tecnologiche potrebbe portare al caos economico.

Le sue parole sono inequivocabili: “Penso che in futuro assisteremo a una crisi finanziaria… e, in seguito a tale evento, le persone diranno ‘Ecco! C’era un aggregatore di dati o un modello su cui ci siamo basati’. Potrebbe riguardare il mercato dei mutui o un settore del mercato azionario”.

Intelligenza artificiale: urge una regolamentazione

La preoccupazione di Gensler non riguarda soltanto l’IA in sé, ma anche la mancanza di una regolamentazione adeguata. Egli ha fatto appello affinché venga introdotta una regolamentazione sull’IA che affronti sia i modelli IA sviluppati da aziende tecnologiche, sia il modo in cui vengono utilizzati dalle banche di Wall Street. Questa rappresenta una “sfida inter-regolamentare” poiché la maggior parte delle regolamentazioni attualmente esistenti riguarda singole istituzioni, mentre l’IA ha un impatto trasversale, influenzando molteplici entità.

Le banche di Wall Street hanno adottato con grande entusiasmo l’IA generativa, soprattutto dopo il lancio di ChatGPT. Un esempio è Morgan Stanley, che ha introdotto un assistente virtuale basato sul modello GPT4 di OpenAI al fine di supportare i propri consulenti finanziari. Allo stesso tempo, JPMorgan ha brevettato un modello IA chiamato ‘IndexGPT’ per assistere i trader nella selezione dei titoli su cui investire.

Tuttavia, nonostante l’entusiasmo, alcune banche hanno adottato misure precauzionali. Goldman Sachs, Deutsche Bank e Bank of America hanno proibito ai propri dipendenti di utilizzare il chatbot ChatGPT, evidenziando così le preoccupazioni relative alla sicurezza e all’affidabilità di questa tecnologia.

La rapida adozione dell’IA nel settore finanziario solleva interrogativi cruciali. Cosa succederebbe, ad esempio, se molte istituzioni dovessero fare affidamento sullo stesso modello o aggregatore di dati e tale modello presentasse delle falle o venisse compromesso? La concentrazione del potere e la dipendenza da un unico modello o tecnologia potrebbero amplificare i rischi, dando origine a effetti a catena nell’intero sistema finanziario.

In conclusione, nonostante l’IA offra straordinarie opportunità per migliorare l’efficienza e l’innovazione nel settore finanziario, è fondamentale procedere con estrema cautela. La presenza di una regolamentazione adeguata, la diversificazione dei modelli e una comprensione approfondita dei rischi rappresentano elementi fondamentali per garantire che l’IA sia un vantaggio e non una minaccia per la stabilità economica globale.