L’Intelligenza Artificiale ha un acerrimo nemico | E non è l’essere umano
Nella storia robot e umani sono sempre stati rappresentati come nemici: in realtà non è affatto così, ecco chi è la nemesi dell’IA.
Lo sviluppo dell’intelligenza artificiale e delle piattaforme che la utilizzano come ChatGPT hanno portato in superficie tutti i progressi tecnologici che sono stati compiuti negli ultimi anni, ma di cui erano al corrente quasi unicamente gli addetti ai lavori.
Il rilascio di ChatGpt come piattaforma Open source, quindi gratuita per chiunque abbia una connessione, ha portato a una febbre generalizzata e a un entusiasmo davvero incredibile per i meccanismi che ci permettono di utilizzarla come supporto nel lavoro o persino fonte di intrattenimento.
Sembra incredibile poter “dialogare” in questo modo con un software: ancora più consensi ha riscosso la nuova versione di ChatGpt, che vede il rilascio di una serie di funzioni utili soprattutto dal punto di vista lavorativo o per lo studio.
La nuova versione è gratuita solamente per un numero limitato di quesiti, ma è probabile che, dopo averla provata, avrete voglia di spendere qualche soldo per averla tutta per voi. Eppure, non tutti se ne sono resi conto, ma l’intelligenza artificiale ha alcuni importanti difetti che rendono il suo “lavoro” inaccurato, un lavoro che, infatti, ancora necessita di una attenta revisione da parte di un essere umano.
Intelligenza artificiale: la nemica di sé stessa
Alcuni esperti hanno rintracciato il problema che causerebbe l’alto tasso di errore negli elaborati dell’IA all’interno dell’IA stessa: si tratterebbe dei modelli con cui essa viene addestrata.
Nello specifico stiamo parlando di un fenomeno denominato “collasso del modello”, il quale suggerisce che l’addestramento di nuovi modelli di intelligenza artificiale utilizzando i dati generati da precedenti IA rischia di far sì che i risultati diventino sempre meno coerenti e accurati nel tempo.
IA e la sua nemesi, lo dice uno studio di Oxford
Secondo uno studio condotto presso la prestigiosa Università di Oxford, è stato osservato che le IA addestrate con dati generati da altre IA tendono a degradare la qualità dei risultati dopo poche generazioni. Questo fenomeno ha gravi implicazioni per la qualità dei modelli di machine learning e, quindi, per gli utenti che dipendono da queste tecnologie.
Si teme, dunque, un vero e proprio “crollo del modello”: le conseguenze si intendono su larga scala visto che l’IA è già molto più diffusa di quanto possiamo pensare in moltissimi settori che tengono in piedi l’economia occidentale.