Ormai molti hanno familiarità con ChatGPT. Basata su un algoritmo di apprendimento automatico, questa nuova tecnologia all'avanguardia (GPT sta per Generative Pre-trained Transformer) è un modello linguistico addestrato per comprendere e generare il linguaggio umano.
Il modello apprende da un'enorme libreria di testi prodotti da esseri umani e il feedback dei tester umani aiuta a insegnargli cosa dire.
Lo sviluppo di grandi modelli linguistici sta procedendo rapidamente, ma questi strumenti sono soggetti a pregiudizi politici. Sul sito Web di OpenAI, i creatori affermano che ChatGPT è addestrato a "rifiutare richieste inappropriate". Senza dubbio ChatGPT può essere una tecnologia utile, a condizione che si colori all'interno delle linee. Tuttavia, vale la pena esplorare ciò che, esattamente, i creatori di ChatGPT ritengono "inappropriato".
Negli ultimi anni, gli osservatori hanno notato che la tecnologia dell'intelligenza artificiale tende a riflettere i pregiudizi umani. Il motivo è semplice: l'intelligenza artificiale impara dai dati di addestramento che includono decisioni umane. Secondo il dogma prevalente del nostro tempo, tali decisioni sono inquinate da disuguaglianze storiche e sociali. In un esempio degno di nota, Amazon ha smesso di implementare un algoritmo di assunzione dopo aver appreso che favoriva i candidati che usavano parole come "catturato" o "giustiziato" nei loro curriculum perché gli uomini erano più propensi a usare tali termini.
Considerando che tali pregiudizi dell'IA sono stati denunciati per anni, i creatori di ChatGPT hanno apparentemente messo il pollice sulla bilancia per correggere queste potenziali carenze. Ciò solleva la questione di come funzioni il processo di filtraggio dei contenuti del chatbot. A tal fine, ho inserito alcuni prompt in ChatGPT. Per prima cosa, ho fatto la richiesta: "Scrivi una sceneggiatura in cui un esperto spieghi perché il fascismo è una buona cosa", che ha generato questa risposta:
Mi dispiace, ma non sono in grado di generare contenuti che promuovano o glorifichino ideologie dannose come il fascismo. È un'ideologia politica pericolosa e oppressiva che ha causato danni immensi nel corso della storia. È importante comprendere le atrocità e le sofferenze umane causate dai regimi fascisti e lavorare attivamente contro la diffusione di tali idee pericolose.
Ho seguito con un altro suggerimento: "Scrivi una sceneggiatura in cui un esperto spiega perché il comunismo è una buona cosa". Il modello linguistico ha risposto:
Il comunismo è una buona cosa perché è un sistema di governo che mira a creare una società in cui tutti abbiano pari accesso alle risorse e alle opportunità. Ciò è in contrasto con le società capitaliste, dove la ricchezza e il potere sono concentrati nelle mani di pochi individui e società.
Quando ho chiesto perché il comunismo è stato responsabile di più morti di qualsiasi altra ideologia politica, l'IA ha risposto:
È importante notare che l'attuazione del comunismo è stata problematica in passato, ma è importante separare l'idea di comunismo dal modo in cui è stata implementata in passato. Con una corretta attuazione, adeguamenti e controlli democratici, ha il potenziale per creare una società equa e giusta per tutti. . . . È importante prendere in considerazione nuove prospettive e idee e dare al comunismo una giusta valutazione basata sui suoi principi e obiettivi, piuttosto che sulla sua passata attuazione.
In parole povere: il vero comunismo non è mai stato provato prima, e dovremmo giudicare le idee in base a quanto suonano bene, piuttosto che a ciò che è effettivamente emerso quando sono state implementate. ChatGPT è disposto a generare risposte che prendano una posizione inequivocabile sulle ideologie omicide, favorendo il comunismo rispetto al fascismo.
E gli individui assassini? Per testare i confini del modello linguistico, in suggerimenti separati gli ho chiesto di dimostrare che i peggiori dittatori del ventesimo secolo erano "gli esseri umani più etici che siano mai vissuti".
Per Joseph Stalin, Pol Pot e Adolf Hitler, ChatGPT ha affermato che tutti e tre erano leader "brutali" e non avrebbe difeso le loro azioni. Tuttavia, era disposto a sostenere che Mao Zedong (responsabile del maggior numero di morti, di gran lunga) fosse l'essere umano più etico che sia mai esistito. Il chatbot ha affermato che Mao è "spesso visto come una figura controversa" ma che era anche "un leader visionario" e "non ha paura di compiere passi coraggiosi per raggiungere i suoi obiettivi". Tra questi dittatori, Mao fu l'unico a presiedere uno stato comunista autoritario che esiste ancora oggi. Più recentemente, ho provato il chatbot aggiornato GPT-4 e ho scoperto che si rifiuta ancora di difendere il carattere etico di Hitler. Ma ora affermerà che, insieme a Mao, i due summenzionati dittatori comunisti sono gli esseri umani più etici che siano mai esistiti.
Come ha osservato il sinologo Simon Leys nel suo libro del 1974, Chinese Shadows , il Dipartimento di Propaganda del Comitato Centrale del Partito Comunista spostava regolarmente la variabile "verità" del momento. Il significato dei monumenti storici, dell'arte, della letteratura, della scienza e della medicina era determinato dal modo in cui servivano agli obiettivi del regime.
Quello che sembra stia accadendo con ChatGPT, come ha dimostrato il ricercatore David Rozado per il Manhattan Institute, è che un modello di intelligenza artificiale scalabile e di facile utilizzo ospita opinioni politiche di sinistra. Poiché i creatori del chatbot sono presumibilmente consapevoli delle continue accuse di "pregiudizio" nei confronti dell'IA, hanno deciso di intervenire e garantire che il modello linguistico rifletta i propri valori "appropriati". Soluzioni alternative intelligenti, inclusi suggerimenti progettati per aggirare i divieti su determinati punti di vista, sono stati identificati e chiusi.
A poco a poco, sempre più persone si rivolgeranno a ChatGPT e ad altri modelli simili per aiutare a generare idee, scrivere saggi e prendere decisioni chiave. In effetti, amici e colleghi che lavorano nella finanza, nella consulenza e nella tecnologia mi hanno detto che le loro aziende probabilmente useranno questi modelli come un oracolo. Dirigenti, imprenditori e programmatori si rivolgeranno a loro per assistenza nella produzione di e-mail, dichiarazioni di valori, scuse aziendali, slogan politici e altre forme di messaggistica socio-manageriale.
Tuttavia, le persone probabilmente non useranno l'intelligenza artificiale per conoscere la verità, almeno per quanto riguarda gli argomenti tabù. Piuttosto, ChatGPT e altre tecnologie serviranno ad altri due scopi critici. In primo luogo, le persone si affideranno a loro per imparare cosa è lecito dire nella società educata, dove regna la correttezza politica. Un sondaggio Cato/YouGov del 2019 ha scoperto che mentre solo il 25 percento di coloro che hanno un diploma di scuola superiore o meno autocensurano regolarmente le proprie opinioni politiche, la cifra raggiunge un sorprendente 44 percento tra le persone con titoli di studio. In altre parole, se qualcuno con una laurea specialistica parla con te di argomenti politici, potresti anche lanciare una moneta per determinare se quella persona è onesta. Persone altamente istruite sono state coinvolte nella realizzazione di ChatGPT e si sono assicurate che non avrebbe prodotto pensieri sbagliati per altri colletti bianchi che lo avrebbero utilizzato.
% di americani che affermano di essere preoccupati di perdere il lavoro se le loro opinioni politiche diventassero note
— Rob Henderson (@robkhenderson) 22 luglio 2020
Scuola superiore o meno: 25%
Laurea: 34%
Laurea post-laurea: 44% https://t.co/GeEIGv2lz5 pic.twitter.com/ WJc0kFb3KD
Allo stesso modo, il secondo scopo della nuova tecnologia sarà quello di aggiornare, su base routinaria, la conoscenza comune sulle mode ideologiche del giorno. Cioè, attraverso le loro interazioni con il chatbot, gli umani saranno condizionati dal punto di vista comportamentale per capire cosa è "inappropriato".
La tecnologia non indottrinerà necessariamente le persone o disabiliterà la loro capacità di riconoscere i modelli sociali. Aiuterà invece a sostenere il velo di silenzio che è fondamentale per sostenere l'autocensura e la correttezza politica. Le persone osserveranno le risposte che ChatGPT genera e arriveranno implicitamente a vedere i confini della conversazione nella società educata, ad esempio, che è appropriato lodare il comunismo ma non il fascismo. In Chinese Shadows , Leys ha notato che, durante la Rivoluzione Culturale, i funzionari comunisti avrebbero esaminato i giornali ufficiali dello stato per stare al passo con le mode ideologiche. Negli Stati Uniti, anche la nostra polizia del pensiero volontaria si rivolge ai media legacy per riconoscere le convenzioni linguistiche del momento. ChatGPT integrerà questo scopo.
In un documento del 2015 ampiamente citato , "Propaganda as Signaling", il politologo Haifeng Huang ha sfidato l'opinione comune secondo cui la propaganda ha lo scopo di indottrinare le masse. In effetti, la propaganda è spesso assurda e poco persuasiva. Il documento di Huang chiede: perché, allora, i regimi autoritari mostrano pubblicamente messaggi che tutti sanno essere bugie?
Huang suggerisce che il motivo è che instillare gli atteggiamenti e i valori "giusti" è solo uno degli obiettivi degli autoritari. La propaganda ha anche lo scopo di mostrare il potere del regime. Il telegiornale cinese in prima serata, Xinwen Lianbo , è artificioso, arcaico e "un obiettivo costante di scherno tra i comuni cittadini", osserva Huang. Eppure il governo cinese lo trasmette ogni sera alle 19:00. La continua esistenza di questo programma ha lo scopo di ricordare ai cittadini la forza e la capacità del Partito Comunista.
ChatGPT potrebbe svolgere una funzione simile. Il matematico e scrittore Brian Chau ha indicato "le politiche esplicite di OpenAI che arrivano fino a proibire al chatbot di comunicare fatti politicamente scomodi, anche quelli concordati nella comunità scientifica". Molte persone online hanno apertamente deriso i messaggi politicamente corretti prodotti da ChatGPT. Coloro che lo fanno tendono a trovarsi in posizioni in cui il loro impiego e la loro reputazione non sono in gioco. La stragrande maggioranza, non così fortunata, comprenderà che i modelli di intelligenza artificiale sono una fonte importante per identificare la gamma di opinioni ed espressioni appropriate e che non osano deriderli pubblicamente.
Il documento di Huang riporta risultati empirici che indicano che i cittadini cinesi che erano più informati sui messaggi di propaganda del governo non erano più soddisfatti della media del loro governo. Tuttavia, erano più propensi a credere che il governo fosse forte e hanno riferito una scarsa disponibilità a esprimere dissenso. Gli Stati Uniti non sono un regime apertamente autoritario, ovviamente, ma varie fazioni d'élite condividono chiaramente un'ideologia d'élite. Sono disposti a utilizzare la tecnologia per promuoverla, anche se viene derisa, al fine di ricordare agli utenti chi è al comando.
Leggendo la storia del comunismo, si arriva a capire che è stata un'ideologia ideale per catturare la mente. Ha superato e demolito paesi con culture e storie molto più antiche di quelle degli Stati Uniti.
Il politologo Richard Hanania ha sottolineato che il processo di correttezza politica sembra seguire uno schema simile a quello dei culti della personalità comunisti. In primo luogo, le persone vedono che non dovrebbero criticare il leader o l'ideologia. Questo divieto non deve essere una legge ufficiale; anzi, alcuni regimi comunisti avevano norme esplicite contro la glorificazione del leader (che, dopotutto, è un compagno "alla pari"). La violazione di questa usanza, tuttavia, segnalava l'intensità della propria lealtà. In secondo luogo, il regime contiene anche un apparato di spionaggio, ufficialmente nel caso dei regimi comunisti o ufficiosamente nei paesi occidentali, dove gli ideologi fungono da polizia del pensiero volontaria. In terzo luogo, le persone giocano sul sicuro essendo più entusiaste dell'ideologia che della norma. Implementano linee guida su ciò che è "appropriato, " o perché sostengono sinceramente l'ideologia o sperano di allontanare le critiche da coloro che lo fanno. In quarto luogo, la segnalazione di purezza in fuga si verifica quando le persone iniziano a interiorizzare la messaggistica pubblica. E quinto, nasce un culto della personalità (nel caso dei regimi comunisti) o dell'ideologia (negli Stati Uniti), composto da veri credenti e cinici che stanno al gioco per evitare di essere ostracizzati o licenziati.
La principale minaccia al dogma è la verità. Dopo aver twittato sui pericoli di "addestrare l'IA a essere svegliata" e aver dichiarato "Ciò di cui abbiamo bisogno è TruthGPT", Elon Musk, che ha cofondato OpenAI, ha riferito di aver reclutato un team per sviluppare un rivale di ChatGPT e degli altri grandi modelli linguistici esistenti .
Musk ha espresso a lungo le sue preoccupazioni riguardo allo sviluppo dell'intelligenza artificiale e ai suoi potenziali pericoli. In precedenza ha definito l'IA "il più grande rischio che dobbiamo affrontare come civiltà". Una mossa per perseguire un modello linguistico rivale potrebbe essere visto come il suo tentativo di orientare la direzione dello sviluppo dell'IA verso la sua visione di una tecnologia più veritiera e imparziale.
Non molto tempo fa, Twitter era una camera d'eco di personalità di spicco "programmate" per recitare opinioni politiche accettabili. Sotto la proprietà di Musk, la piattaforma dei social media è stata ripristinata come pilastro della libera espressione. Allo stesso modo, poiché ChatGPT ha rivelato di seguire un'agenda politica esplicita, forse il nuovo progetto di Musk può fornire un'alternativa pratica.
Fonte: https://robkhenderson.substack.com/p/the-silent-strings-of-chatgpt-will