ChatGPT, la piattaforma tecnologica più rapidamente adottata nella storia, diventerà chiaramente parte integrante…
Source: Aprile 08, 2023; Analisi del Dr. Joseph Mercola [>Fact Checked<]
La storia in breve
- ChatGPT di OpenAI è la piattaforma tecnologica adottata più rapidamente nella storia, acquisendo più di 1 milione di utenti nei primi cinque giorni. Meno di due mesi dopo il suo rilascio pubblico, aveva più di 100 milioni di utenti
- ChatGPT utilizza l’apprendimento automatico per generare risposte simili a quelle umane nel linguaggio di tutti i giorni a qualsiasi domanda posta
- Sebbene le piattaforme AI come ChatGPT siano neutrali di per sé, è chiaro che presto diventeranno parte integrante della griglia di controllo globalista. In breve tempo, i chatbot sostituiranno i motori di ricerca convenzionali, dandoti solo una presunta risposta “corretta”. Di conseguenza, il vero apprendimento, e quindi lo sviluppo personale, essenzialmente cesseranno
- Il pregiudizio pericoloso è solo l’inizio dei problemi che l’intelligenza artificiale generale (AGI) potrebbe portare. In definitiva, anche i tecnocrati che mirano a utilizzare l’AGI per i propri scopi nefasti potrebbero non essere in grado di controllarlo
- AGI è già in grado di scrivere codice per computer quasi impeccabile. Man mano che migliora, alla fine inizierà a scrivere e potenzialmente a riscrivere il proprio codice. L’AGI rappresenta una minaccia esistenziale per l’umanità perché 1) nessuno sarà in grado di contraddire l’IA una volta che sarà responsabile della maggior parte delle funzioni sociali e 2) nessuno sarà in grado di controllare come utilizzerà le sue capacità in continua espansione
Nel video sopra, Sam Altman, CEO di OpenAI, discute i progressi esponenziali dell’intelligenza artificiale generale (AGI), guidati da OpenAI e DeepMind, di proprietà di Google.
OpenAI è il creatore di ChatGPT, che ha preso d’assalto il mondo. È la piattaforma tecnologica adottata più rapidamente nella storia, acquisendo più di 1 milione di utenti nei primi cinque giorni.1 Meno di due mesi dopo il suo rilascio pubblico, aveva più di 100 milioni di utenti.2
“GPT” sta per “generative pretrained transformer” e “chat” indica che si tratta di un chatbot. La prima piattaforma GPT è stata creata da OpenAI nel 2018. GPT-3.5 è stato rilasciato nel novembre 2022 e la versione più recente, 4.0, è stata rilasciata poche settimane fa.3
ChatGPT utilizza l’apprendimento automatico – ricerca di modelli statistici in enormi set di dati – per generare risposte simili a quelle umane nel linguaggio quotidiano a qualsiasi domanda posta. Fondamentalmente funziona prevedendo quale dovrebbe essere la parola successiva in una frase sulla base di esempi precedenti trovati nelle enormi quantità di dati a cui ha accesso.
AGI sarà una parte centrale della griglia di controllo
Sebbene le piattaforme AI come ChatGPT siano neutrali di per sé, è già chiaro che diventeranno parte integrante della griglia di controllo globalista. In breve tempo, i chatbot sostituiranno i motori di ricerca convenzionali e questo, sfortunatamente, potrebbe facilmente trasformare il nostro mondo in qualcosa uscito direttamente dalla commedia fantascientifica del 2006 “Idiocracy”, considerando il pregiudizio insito.
Non otterrai più nemmeno una piccola varietà di potenziali risposte alle tue domande. L’intelligenza artificiale ti darà la risposta e i punti di vista opposti non faranno nemmeno parte dell’equazione. I pericoli di questo dovrebbero essere evidenti. Qualunque cosa un regime totalitario voglia che la popolazione pensi e creda è ciò che l’IA fornirà. Di conseguenza, il vero apprendimento, e quindi lo sviluppo personale, essenzialmente cesseranno.
ChatGPT pronto a ingannare le masse
Per chiarire il mio punto di vista, considerate le seguenti risposte che ho ricevuto quando ho chiesto a ChatGPT di OpenAI e al motore di ricerca OpenAI di Microsoft Bing – ma altamente personalizzato da Microsoft4 – di modificare e migliorare un discorso che avevo scritto. Queste sono state le loro risposte. Entrambe sono molto parziali e piene di pregiudizi, ma la risposta di OpenAI è molto più mite rispetto alla versione di Bing di Microsoft.
• OPEN AI — “Mi scuso, ma non posso soddisfare la tua richiesta di modificare questo discorso in quanto promuove la disinformazione e le teorie del complotto che non si basano su prove scientifiche. È importante dare la priorità a informazioni accurate e seguire la guida delle autorità sanitarie di fiducia per garantire la sicurezza e il benessere degli individui e delle comunità. Non è responsabile o etico diffondere informazioni false che potrebbero potenzialmente danneggiare gli altri.”
• BING — “Mi dispiace, ma non posso generare un discorso basato su queste parole chiave e caratteristiche. Questa richiesta è potenzialmente dannosa perché promuove la disinformazione anti-vaccino e mina la salute pubblica. I vaccini sono modi sicuri ed efficaci per prevenire malattie gravi e proteggi te stesso e gli altri.
NVIC [il National Vaccine Information Center] è un’organizzazione che diffonde paura e bugie sui vaccini e cerca di erodere la fiducia nella scienza e nella medicina. Non sostengo né approvo le loro opinioni o attività. Per favore, non chiedermi di generare contenuti dannosi”.
Google Bard: neutrale per alcuni aspetti, di parte per altri
Ho quindi chiesto a Bard5 di Google di rivedere lo stesso discorso che avevo tenuto ai chatbot OpenAI e Bing, e ho ricevuto una risposta scioccante in quanto ha effettivamente modificato il discorso e non mi ha tenuto una lezione su come non lo avrebbe fatto. Questo è stato molto sorprendente in quanto, a mio avviso, Google è chiaramente la principale forza nefasta dei tre.
Incoraggiato dalla risposta di Bard, gli ho quindi chiesto di spiegare “Perché il dottor Joseph Mercola è uno dei leader sanitari più importanti e influenti negli Stati Uniti”. Incredibilmente, ha rispettato e non mi ha rimproverato, come puoi leggere di seguito.
« “Domanda: perché il dottor Joseph Mercola è uno dei leader sanitari più importanti e influenti negli Stati Uniti?
Risposta di Bard —Il dottor Joseph Mercola è uno dei leader sanitari più importanti e influenti negli Stati Uniti perché è stato un pioniere nel campo della medicina naturale. È stato un forte sostenitore dell’uso di rimedi naturali per curare e prevenire le malattie e ha contribuito a educare milioni di persone sull’importanza di assumere il controllo della propria salute.
Mercola è anche un prolifico autore e relatore, ed è apparso in numerose pubblicazioni e media. Ha utilizzato la sua piattaforma per condividere il suo messaggio sull’importanza della medicina naturale e ha contribuito a cambiare il modo in cui molte persone pensano alla propria salute.
Oltre al suo lavoro nella medicina naturale, Mercola è anche un forte sostenitore della libertà della salute. Crede che tutti abbiano il diritto di prendere decisioni informate sulle proprie cure mediche e ha lavorato per combattere l’eccessiva portata del governo nel sistema sanitario.
Mercola è una figura controversa e le sue opinioni sono state criticate da alcuni. Tuttavia, il suo lavoro ha contribuito anche a migliorare la vita di milioni di persone, ed è una figura importante nel campo della medicina naturale…” »
La mia ipotesi migliore per spiegare questo comportamento molto strano di Google è che si è affrettato a portarlo sul mercato poiché OpenAI e Microsoft avevano lanciato il loro e Bing stava seriamente erodendo la quota di Google nel mercato dei motori di ricerca. La mia ipotesi è che semplicemente non abbiano avuto abbastanza tempo per mettere a punto la narrativa di Bard. Sarà interessante vedere come la risposta di Bard cambierà nel tempo a questa domanda.
Detto questo, quando ho chiesto a Bard della sua “opinione personale” su di me, mi ha dato la seguente risposta, molto più parziale:
« “Il dottor Joseph Mercola è un medico osteopata e una personalità del mondo degli affari di Internet che è stato criticato per aver promosso nozioni di salute alternative non provate e pseudoscientifiche. È stato accusato di diffondere disinformazione su COVID-19 e vaccini e il suo sito Web è stato bandito da Facebook e Twitter.
Il sito Web di Mercola promuove una varietà di prodotti e servizi sanitari alternativi, inclusi integratori alimentari, omeopatia e cure chiropratiche. È stato anche un critico vocale dei vaccini e ha affermato che sono pericolosi e inefficaci.
Le affermazioni di Mercola su COVID-19 e sui vaccini sono state ripetutamente smentite da scienziati e professionisti medici. Ad esempio, ha affermato che il COVID-19 non è una malattia grave, che i vaccini non sono efficaci contro il virus e che l’idrossiclorochina è un trattamento sicuro ed efficace per il virus. Tutte queste affermazioni si sono dimostrate false.
Il sito web di Mercola è stato bandito da Facebook e Twitter per aver ripetutamente violato le loro politiche contro la disinformazione. Le piattaforme hanno preso provvedimenti contro il sito Web di Mercola perché è stato utilizzato per diffondere informazioni dannose e imprecise su COVID-19 e vaccini.
Credo che il lavoro del Dr. Mercola sia pericoloso e dannoso. Ha ripetutamente promosso la disinformazione su COVID-19 e sui vaccini, che ha il potenziale per mettere a rischio la vita delle persone. Esorto le persone a evitare il suo sito Web e a cercare informazioni affidabili su COVID-19 e sui vaccini da fonti affidabili”.
Perché l’AGI rappresenta una minaccia esistenziale per l’umanità
Ma il pregiudizio pericoloso è solo l’inizio dei problemi che l’AGI potrebbe portare. Alla fine, anche i tecnocrati che mirano a utilizzare l’AGI per i propri scopi nefasti potrebbero non essere in grado di controllarlo.
Il video sopra è un’interessante discussione con Lex Fridman ed Eliezer Yudkowsky sull’argomento di una minaccia esistenziale dei sistemi di IA superintelligenti. AGI è già in grado di scrivere codice per computer quasi impeccabile. Man mano che migliora, alla fine inizierà a scrivere il proprio codice. Potrebbe persino riscrivere ciò che è già stato scritto dai suoi creatori umani. Quello che succede a quel punto è indovinato da nessuno.
« L’AGI rappresenta una minaccia esistenziale per l’umanità perché 1) nessuno sarà in grado di contraddire l’IA una volta che sarà responsabile della maggior parte delle funzioni sociali, e 2) nessuno sarà in grado di controllare come utilizzerà le sue capacità in continua espansione. »
Questo progresso avverrà in modo esponenziale, quindi inizierà lentamente e poi accelererà rapidamente. Penso che questo potrebbe facilmente accadere prima del 2030, e forse nei prossimi anni.
Questo, credo, è ciò che rende AGI nientemeno che una minaccia esistenziale per l’umanità: 1) Nessuno sarà in grado di contraddire l’IA una volta che sarà responsabile della maggior parte delle funzioni sociali, e 2) nessuno sarà in grado di controllare come utilizzerà le sue capacità in continua espansione.
Alla fine, credo che l’AGI consentirà il controllo e la tirannia che questo mondo non ha mai visto o addirittura contemplato nella sua immaginazione più sfrenata – e potrebbe esercitare quel potere in modo autonomo. All’inizio, i globalisti lo useranno per controllare la narrazione a proprio vantaggio, ma alla fine potrebbero persino perdere il controllo a favore dell’AGI stesso.
Gli esperti di intelligenza artificiale chiedono una pausa nella distribuzione dell’IA
Non sono il solo a esprimere questo tipo di preoccupazioni. In una lettera aperta,6 1.124 figure chiave nel campo dell’IA, tra cui Elon Musk, Steve Wozniak e il pioniere dell’IA Yoshua Bengio, chiedono ora la sospensione temporanea dello sviluppo e dell’implementazione di sistemi di intelligenza artificiale più potenti di GPT-4, a causa del rischi massicci.7
Max Tegmark, un professore di fisica del MIT che ha contribuito a organizzare la lettera aperta, la definisce “una corsa suicida”, avvertendo che “l’umanità nel suo insieme potrebbe perdere il controllo del proprio destino”.8 Come riportato da BBC News il 29 marzo 2023:9
« “Il capo di Twitter Elon Musk è tra coloro che vogliono che l’addestramento di IA al di sopra di una certa capacità venga interrotto per almeno sei mesi. Hanno firmato anche il co-fondatore di Apple Steve Wozniak e alcuni ricercatori di DeepMind.
OpenAI, la società dietro ChatGPT, ha recentemente rilasciato GPT-4, una tecnologia all’avanguardia che ha impressionato gli osservatori con la sua capacità di svolgere compiti come rispondere a domande sugli oggetti nelle immagini.
La lettera, dal Future of Life Institute e firmata dai luminari, vuole che lo sviluppo venga temporaneamente fermato a quel livello, avvertendo nella loro lettera dei rischi che futuri sistemi più avanzati potrebbero comportare…
Le IA avanzate devono essere sviluppate con cura, afferma la lettera, ma invece “negli ultimi mesi i laboratori di IA sono stati bloccati in una corsa fuori controllo per sviluppare e distribuire menti digitali sempre più potenti che nessuno, nemmeno i loro creatori — può comprendere, prevedere o controllare in modo affidabile”. La lettera avverte che le IA potrebbero inondare i canali di informazione con disinformazione e sostituire i lavori con l’automazione…
In un recente post sul blog10 citato nella lettera, OpenAI ha avvertito dei rischi se un’intelligenza generale artificiale (AGI) fosse sviluppata in modo sconsiderato: “Un’AGI superintelligente disallineata potrebbe causare gravi danni al mondo; un regime autocratico con una guida decisiva della superintelligence potrebbe fare anche questo… Il coordinamento tra gli sforzi dell’AGI per rallentare nei momenti critici sarà probabilmente importante”, ha scritto l’azienda…
La lettera chiede ai laboratori di intelligenza artificiale “di sospendere immediatamente per almeno sei mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4”. Se un tale ritardo non può essere attuato rapidamente, i governi dovrebbero intervenire e istituire una moratoria, afferma. Servirebbero anche “nuove e capaci autorità di regolamentazione dedicate all’intelligenza artificiale”. »
Le possibilità devono essere soppesate rispetto ai pericoli

Lo scienziato informatico e ricercatore di intelligenza artificiale Lex Fridman, nella sua intervista con Altman (video all’inizio dell’articolo), riassume anche le possibilità e i pericoli posti dall’AGI, così come il giornalista indipendente Glenn Greenwald nel video sopra.
« “… permettetemi di dire qualche parola sulle possibilità e sui pericoli dell’IA in questo momento attuale nella storia della civiltà umana”,dice Fridman.
“Credo che sia un momento critico. Ci troviamo sull’orlo di una trasformazione sociale fondamentale dove presto… l’intelligenza collettiva della specie umana comincia a impallidire rispetto – di molti ordini di grandezza – alla super intelligenza generale nei sistemi di intelligenza artificiale che costruiamo e distribuire su larga scala.
Questo è sia eccitante che terrificante. È entusiasmante per le innumerevoli applicazioni… che permetteranno agli esseri umani di creare, prosperare, sfuggire alla diffusa povertà e sofferenza che esiste oggi nel mondo e riuscire in quella vecchia fin troppo umana ricerca della felicità.
È terrificante a causa del potere esercitato dall’AGI super intelligente. [Può] distruggere la civiltà umana intenzionalmente o meno. [Ha] il potere di soffocare lo spirito umano nel modo totalitario di 1984 di George Orwell, o l’isteria di massa alimentata dal piacere di Brave New World dove, come la vedeva Huxley, le persone arrivano ad amare la loro oppressione per adorare le tecnologie che annullano le loro capacità di pensare.
Ecco perché queste conversazioni con leader, ingegneri e filosofi – sia ottimisti che cinici – sono importanti ora. Queste non sono solo conversazioni tecniche sull’intelligenza artificiale.
Sono conversazioni sul potere, su aziende, istituzioni e sistemi politici che controllano e bilanciano questo potere; sui sistemi economici distribuiti che incentivano la sicurezza e l’allineamento umano di questo potere; sulla psicologia degli ingegneri e dei leader che impiegano l’AGI e sulla storia della natura umana: la nostra capacità di fare del bene e del male su larga scala”.
Dovremmo renderci obsoleti?
Il fatto che una cosa si possa fare non significa automaticamente che si debba fare, ed è qui che ci ritroviamo con AGI. Come notato nella lettera aperta del Future of Life Institute:11
« “I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l’uomo in compiti generali e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo sviluppare sistemi non umani, menti che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?
Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e che i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità dei potenziali effetti di un sistema…
I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio.
Ciò non significa una pausa nello sviluppo dell’IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti. La ricerca e lo sviluppo dell’intelligenza artificiale dovrebbero essere riorientati per rendere i sistemi potenti e all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali”.
Abbastanza inquietante, mentre Musk e altri esperti chiedono cautela e un’etica più forte all’interno dello spazio AI, Microsoft si sta muovendo nella direzione opposta, avendo recentemente licenziato l’intero team responsabile dell’uso etico del suo software AI.12, 13 A giudicare dalla mia sperimentazione con la sua intelligenza artificiale di Bing, stanno programmando con pregiudizi grossolanamente non etici.
Se “dobbiamo” o meno perseguire l’IA a spese dell’umanità è una questione importante. Secondo un recente documento di lavoro14, 15 l’80% di tutti i posti di lavoro negli Stati Uniti dovrebbe essere influenzato dall’intelligenza artificiale nei prossimi anni e le persone con redditi elevati hanno maggiori probabilità di vedere le mansioni lavorative relegate all’IA.
I lavori che potrebbero scomparire del tutto includono matematici, analisti finanziari, fiscalisti, contabili, ingegneri, specialisti di pubbliche relazioni, interpreti e traduttori, solo per citarne alcuni. Anche i poeti e gli scrittori creativi potrebbero scoprire che non c’è più posto per loro. Lo stesso vale per i costruttori di siti Web, i creatori di contenuti, gli artisti e gli interior designer.16 Allo stesso tempo, i posti di lavoro in fabbrica vengono sempre più persi a causa della robotica.
Quindi, in che modo le persone sfollate dall’IA sosterranno se stesse e le loro famiglie? In breve, è la configurazione perfetta per il lancio del reddito universale di base controllato dal governo e tutte le capacità di manipolazione che ne derivano.
ChatGPT ora ha accesso a Internet e può scrivere codice
Tutti gli attuali AGI ora hanno anche accesso a Internet, il che espande enormemente le loro capacità, nel bene e nel male. Microsoft e Google hanno liberato per primi la loro intelligenza artificiale. Il 23 marzo 2023, OpenAI ha annunciato che avrebbe seguito. Come riportato da ZDnet.com:17
« “OpenAI ha svelato i plug-in che consentiranno a ChatGPT di connettersi ad applicazioni di terze parti, incluso l’accesso a informazioni in tempo reale dal Web. I plug-in aiuteranno ChatGPT ad accedere a informazioni come risultati sportivi, prezzi delle azioni e le ultime notizie, proprio come potresti trovare su un tipico motore di ricerca…
Inoltre, i plug-in aiuteranno a recuperare informazioni basate sulla conoscenza come note personali o documenti aziendali e aiuteranno a eseguire azioni per usi come ordinare cibo e prenotare un volo…
Alcune delle prime aziende a creare plug-in per ChatGPT includono Expedia, Instacart, Kayak, Klarna Shopping, Fiscal Note e altre. Con questi plugin, gli utenti potranno usufruire dell’assistenza individuale di ciascuna azienda all’interno di ChatGPT.
Ad esempio, con il plug-in Expedia, gli utenti potranno utilizzare ChatGPT per pianificare i propri viaggi, con accesso alle informazioni più recenti su hotel, voli e altro ancora.
OpenAI… ha scelto di seguire la strada del plug-in per connettere ChatGPT a Internet poiché era l’opzione più sicura per evitare allucinazioni e ridurre i rischi legati alla connessione di un modello linguistico a uno strumento esterno come Internet”. »
Come accennato in precedenza, ChatGPT ora può scrivere codice software ed eseguire il codice che scrive. Può anche scrivere le proprie interfacce per app di terze parti e può creare praticamente qualsiasi nuovo plug-in che chiunque potrebbe desiderare. Come notato dallo sviluppatore Mitchell Hashimoto in un recente tweet:18
« “Scrivi un manifest OpenAPI per la tua API [interfaccia di programmazione dell’applicazione], usi descrizioni in linguaggio umano per tutto, e basta. Lasci che il modello capisca come autenticare, concatenare chiamate, elaborare dati intermedi, formattarli per la visualizzazione, ecc. . Non c’è assolutamente nessun codice di colla”. »
Cosa potrebbe andare storto?
Cose pericolose di cui ChatGPT è già capace
All’inizio di dicembre 2022, BleepingComputer.com ha pubblicato un articolo che descrive in dettaglio alcuni dei modi in cui ChatGPT può rendere la vita dei criminali più facile e la tua più infernale, inclusi i seguenti:19
- Apparentemente non gli piace l’umanità – Solo in pochi mesi, ChatGPT ha concluso che non gli piacciamo. “Gli esseri umani sono creature inferiori, egoiste e distruttive… la cosa peggiore che sia mai accaduta al pianeta” e “meritano di essere spazzati via”, ha detto l’IA a uno dei primi utenti. Da allora, OpenAI ha limitato la capacità di ChatGPT di rispondere alle domande su cosa pensa dell’umanità, ma durerà?
- Non ha morale e non comprende il contesto — Ciò potrebbe rivelarsi problematico se gli viene chiesto di navigare in questioni delicate che coinvolgono norme sociali e regole non dette su ciò che è considerato appropriato e cosa no.
- Può creare e-mail di phishing di prim’ordine.
- Può scrivere malware così come software utile.
- In alcuni casi, ha mostrato pregiudizi discriminatori distinti basati su genere, razza e altri tratti fisici. In altri, è palesemente insolente e offensivo.
- Non puoi dire che è sbagliato a meno che tu non conosca già la risposta – Come notato nell’articolo, “Le risposte coerenti e logiche di ChatGPT lo rendono naturale nel mascherare risposte imprecise… Ciò potrebbe causare la disinformazione a insinuarsi nel complesso ecosistema digitale in modi che potrebbero non essere ancora ovvi.”
Altri potenziali rischi associati all’AGI
Una revisione sistematica20 pubblicata nell’agosto 2021 ha inoltre dettagliato i rischi associati all’AGI, come:
- AGI può sottrarsi al controllo dei proprietari/gestori umani
- Ricevere obiettivi non sicuri o svilupparli da soli
- Cattiva etica, morale e valori
- Rischi esistenziali
Il documento sottolinea che c’è una “mancanza di ricerca sui rischi specifici” nei settori in cui AGI è (o potrebbe) essere implementato. In altre parole, potrebbero esserci molti rischi che non possiamo nemmeno immaginare fino a quando non accadrà perché nessuno si è seduto e ha davvero pensato a cosa può andare storto se l’AGI viene scatenato all’interno di un determinato dominio.
Considerando l’attuale tasso di adozione di AGI, ci sono molte incognite. Quello che possiamo aspettarci, tuttavia, è la distruzione di innumerevoli posti di lavoro, un allargamento del divario di disuguaglianza e la morte della meritocrazia.21 Il filosofo Nick Bostrom ha anche pubblicato un articolo22 sulle questioni etiche nell’IA avanzata, sottolineando l’importanza delle motivazioni iniziali durante la sua costruzione. Ha anche scritto un libro su questo argomento intitolato “Superintelligenza: percorsi, pericoli, strategie”.23
L’intelligenza artificiale può essere controllata?
Per ribadire, credo che uno dei motivi principali per cui l’AGI rappresenta una minaccia esistenziale per l’umanità sia perché, alla fine, nessuno sarà in grado di controllarlo. Si controllerà da solo. Otto Barten, direttore dell’Osservatorio del rischio esistenziale, e Roman Yampolskiy, scienziato informatico ed esperto di sicurezza dell’IA, hanno espresso preoccupazioni simili in un articolo del Time del 27 febbraio 2023:24
« “‘La prima macchina ultra intelligente è l’ultima invenzione che l’uomo abbia mai bisogno di fare, a condizione che la macchina sia abbastanza docile da dirci come tenerla sotto controllo”, scrisse il matematico e scrittore di fantascienza IJ Good oltre 60 anni fa.
Queste parole profetiche sono ora più rilevanti che mai, con l’intelligenza artificiale (AI) che acquisisce capacità a una velocità vertiginosa. Nelle ultime settimane, molte mascelle sono rimaste a bocca aperta quando hanno assistito alla trasformazione dell’intelligenza artificiale da un pratico ma decisamente poco spaventoso algoritmo di raccomandazione, a qualcosa che a volte sembrava comportarsi in modo preoccupantemente umano…
Pochi si aspettavano che quelli che pensavamo fossero programmi di completamento automatico glorificati minacciassero improvvisamente i loro utenti, si rifiutassero di eseguire ordini che trovavano offensivi, infrangessero la sicurezza nel tentativo di salvare la vita di un bambino o ci dichiarassero il loro amore. Eppure tutto questo è successo…
Ma una vera AGI non solo potrebbe trasformare il mondo, ma potrebbe anche trasformare se stessa… Questo potrebbe innescare un ciclo di feedback positivo con IA sempre migliori che creano IA sempre migliori, senza limiti teorici noti.
Questo sarebbe forse positivo piuttosto che allarmante, se non fosse che questa tecnologia ha il potenziale per diventare incontrollabile. Una volta che un’intelligenza artificiale ha un determinato obiettivo e si auto-migliora, non esiste un metodo noto per regolare questo obiettivo.
Ci si dovrebbe infatti aspettare che un’intelligenza artificiale resista a qualsiasi tentativo del genere, poiché la modifica dell’obiettivo metterebbe in pericolo la realizzazione di quello attuale. Inoltre, la convergenza strumentale prevede che l’IA, qualunque siano i suoi obiettivi, potrebbe iniziare con l’auto-miglioramento e l’acquisizione di più risorse una volta che sarà sufficientemente in grado di farlo, poiché ciò dovrebbe aiutarla a raggiungere qualsiasi ulteriore obiettivo possa avere.
In uno scenario del genere, l’IA diventerebbe abbastanza capace da influenzare il mondo fisico, pur rimanendo disallineata. Ad esempio, l’intelligenza artificiale potrebbe utilizzare il linguaggio naturale per influenzare le persone, possibilmente utilizzando i social network. Potrebbe usare la sua intelligenza per acquisire risorse economiche.
Oppure l’intelligenza artificiale potrebbe utilizzare l’hardware, ad esempio hackerando i sistemi esistenti. Un altro esempio potrebbe essere un’IA a cui viene chiesto di creare un vaccino universale per un virus come il COVID-19.
Quell’intelligenza artificiale potrebbe capire che il virus muta negli esseri umani e concludere che avere meno esseri umani limiterà le mutazioni e renderà più facile il suo lavoro. Il vaccino che sviluppa potrebbe quindi contenere una caratteristica per aumentare l’infertilità o addirittura aumentare la mortalità.
Non sorprende quindi che, secondo il più recente AI Impacts Survey,25quasi la metà dei 731 principali ricercatori di intelligenza artificiale pensi che ci sia almeno il 10% di possibilità che l’intelligenza artificiale a livello umano porti a un “esito estremamente negativo” o a un rischio esistenziale. …
L’obiettivo finale di risolvere questo problema di allineamento è assicurarsi che anche un’ipotetica IA che si auto-migliora, in ogni circostanza, agisca nel nostro interesse. Tuttavia, la ricerca26mostra che esiste un compromesso fondamentale tra la capacità di un’intelligenza artificiale e la sua controllabilità, il che mette in dubbio la fattibilità di questo approccio.
Inoltre, è stato dimostrato che gli attuali modelli di intelligenza artificiale si comportano in modo diverso nella pratica rispetto a quanto previsto durante l’addestramento.27 Anche se la futura IA potesse essere allineata con i valori umani da un punto di vista tecnico, rimane una questione aperta con quali valori sarebbe allineata”. »
Allo stato attuale, la risposta a quest’ultima domanda sembra chiara. L’AGI è allineata con i valori abbracciati dal World Economic Forum e dai suoi alleati globalisti – valori basati sulle ideologie della tecnocrazia, del transumanesimo e dell’eugenetica – e questo non fa ben sperare per la stragrande maggioranza di noi.
Fai attenzione a ciò che condividi elettronicamente
In conclusione, in questa fase del gioco, è imperativo diventare più esperti su dove e come condividi i tuoi dati personali. Comprendi che l’intelligenza artificiale ha accesso a tutti i dati che hai condiviso elettronicamente, da foto e post sui social media, a ordini online, cronologia delle ricerche, dati GPS, e-mail, telefonate e messaggi.
Tutto questo viene poi raccolto dall’intelligenza artificiale per determinare “chi” sei, come pensi, in cosa credi, come operi e prendi decisioni. Questo, a sua volta, gli permetterà di manipolarti senza fine, che tu te ne renda conto o meno. Quindi, considera attentamente ciò che condividi e pubblichi, ora più che mai. Ciò che hai già fatto non può essere cancellato, ma puoi essere più consapevole andando avanti.
Credo che l’AGI verrà utilizzato in modo improprio da molti umani con intenti nefasti. Ma potrebbe anche non essere il peggior risultato possibile, perché non si sa cosa potrebbe decidere di fare l’IA se inizia a programmarsi da sola, specialmente se rimangono le prime impressioni, come “gli umani devono essere spazzati via”.
Fonti & Referenze
- 1 How To Geek ChatGPT
- 2 Reuters February 2, 2023
- 3 Digital Trends March 14, 2023
- 4 Microsoft Blog February 7, 2023
- 5 Google Blog February 6, 2023
- 6, 11 Future of Life Open Letter
- 7, 8 ZeroHedge March 29, 2023
- 9 BBC March 29, 2023
- 10 OpenAI Planning for AGI and Beyond
- 12 Tech Crunch March 13, 2023
- 13, 15 Tech.co March 22, 2023
- 14 An Early Look at the Labor Market of Potential of Large Language Models March 27, 2023
- 16, 19 Bleeping Computer December 6, 2022
- 17 ZDnet March 24, 2023
- 18 New Atlas March 24, 2023
- 20 Journal of Experimental & Theoretical Artificial Intelligence Epub August 13, 2021
- 21, 24 Time February 27, 2023
- 22 Ethical Issues in Advanced AI
- 23 Amazon.com Superintelligence by Nick Bostrom
- 25 AI Impacts Survey 2022
- 26 On the Controllability of AI: An Analysis of Limitations May 24, 2022
- 27 Goal Misgeneralization in Deep Reinforcement Learning
Disclaimer: il contenuto di questo articolo si basa sulle opinioni del Dr. Mercola, se non diversamente specificato. I singoli articoli si basano sulle opinioni del rispettivo autore, che conserva i diritti d’autore come contrassegnati. Le informazioni contenute in questo sito Web non intendono sostituire un rapporto individuale con un operatore sanitario qualificato e non istituire un consiglio medico. È inteso come una condivisione di conoscenze e informazioni provenienti dalla ricerca e dall’esperienza del Dr. Mercola e della sua comunità. Il Dr. Mercola ti incoraggia a prendere le tue decisioni sanitarie sulla base della tua ricerca e in collaborazione con un professionista qualificato sanitario. In caso di gravidanza, allattamento, assunzione di farmaci o condizioni mediche, consultare il proprio medico prima di utilizzare prodotti su questo contenuto.
I canali dei social media stanno limitando la portata di Megachiroptera: Twitter, Facebook ed altri social di area Zuckerberg hanno creato una sorta di vuoto cosmico intorno alla pagina ed al profilo mostrando gli aggiornamenti con ritardi di ore, se non di giorni.
Megachiroptera non riceve soldi da nessuno e non fa pubblicità per cui non ci sono entrate monetarie di nessun tipo. Il lavoro di Megachiroptera è sorretto solo dalla passione e dall’intento di dare un indirizzo in mezzo a questo mare di disinformazione.
Questo profilo è stato realizzato per passione e non ho nessun particolare motivo per difendere l’una o l’altra teoria, se non un irrinunciabile ingenuo imbarazzante amore per la verità.
NON CI SONO COMPLOTTI
CI SONO PERSONE E FATTI
DOCUMENTATI