L’intelligenza artificiale distruggerà il mondo?L'ex capo della sicurezza di Anthropic lancia l'allarme a Claude e all'intero sistema
Claudio segnala il pericolo al capo della sicurezza Antropik e avverte: "Siamo in pericolo".
In qualità di capo della sicurezza umana, Sharma mette in guardia il mondo e fa luce sul pericolo che rappresenta non solo per Claude, ma per la protezione del mondo.
Il mondo parla di antropologia a causa dello sviluppo tecnologico.Si discute del potenziale del cloud, mentre nuove notizie sconvolgono profondamente la narrativa canonica.Qualcosa sta accadendo dietro le quinte, quando Mrinanka Sharma, capo del gruppo di ricerca sulla sicurezza di Anthropic, ha annunciato le sue dimissioni il 9 febbraio 2026.
La sua lettera pubblica si è diffusa rapidamente, innescando un nuovo dibattito sull’industria dell’intelligenza artificiale.Nonostante una serie di “crisi correlate”, il mondo è chiaramente in grave pericolo.
Perché Sharma ha lasciato Anthropic
Diciamo che l'esperienza di Mrinank Sharma presso Anthropic è iniziata nell'agosto 2023. Da allora è alla guida del team di ricerca sulla difesa dell'azienda.È stato coinvolto nello sviluppo di progetti chiave sulla sicurezza dell’intelligenza artificiale, compreso il bioterrorismo assistito dall’intelligenza artificiale.C'è anche l'intelligenza artificiale (sicofania) per soddisfare gli utenti.
Il suo team si è concentrato principalmente sulle strategie per mitigare i rischi associati all’intelligenza artificiale, dai metodi innovativi di jailbreak allo sfruttamento di ampi modelli linguistici.Tuttavia, divenne presto chiaro quanto fosse difficile per lui "restare fedele ai suoi principi".
La lettera non fornisce dettagli specifici sulle tensioni interne, ma offre alcuni avvertimenti preoccupanti.Potremmo affrontare le conseguenze di una mancanza di saggezza, ha detto, che dovrebbe aumentare con la nostra capacità di influenzare il mondo.
Un modo per dire che certi cambiamenti e azioni vengono fatti senza preoccuparsi della necessaria moralità o del futuro del mondo.Non è un caso isolato che si inserisce perfettamente nel contesto generale delle dimissioni dei ricercatori in materia di sicurezza AI presso le più importanti aziende del settore.
Pensiamo a Jan Leike, che in passato ha lasciato OpenAI (ora responsabile della ricerca sulla sicurezza presso Anthropic).Ha sollevato preoccupazioni sui valori fondamentali dell'azienda.Qualcosa che è emerso anche dalle parole di Gretchen Krueger, Atlman vorrebbe un maggiore senso di responsabilità e trasparenza da parte dell'azienda.
Perché la sicurezza di Claude è una preoccupazione
Queste dimissioni non sarebbero potute arrivare in un momento peggiore e non sembrano affatto casuali.Sappiamo infatti che Anthropic ha pubblicato un rapporto sulla sicurezza dei propri modelli cloud.Axios riferisce che Opus 4.6 e Sonnet 4.5 evidenziano vulnerabilità allo sfruttamento in determinati ambienti informatici.L’attenzione si concentra principalmente sugli aiuti involontari a progetti legati allo sviluppo di armi chimiche.
L’azienda ha stabilito che questi rischi erano principalmente legati ad azioni avviate dal modello stesso, senza alcuna influenza umana dannosa.Il rischio che i sistemi vengano sfruttati da organizzazioni o individui criminali deve essere ridotto al minimo (anche se non può essere ignorato).
Tuttavia, a differenza di Sharma, il suo studio spiega come l’uso di chatbot basati sull’intelligenza artificiale possa portare a false percezioni della realtà.I suoi test mostrano ogni giorno "migliaia di connessioni problematiche".
Oggi Sharma intende lavorare più in linea con i suoi valori personali.Perché, addio al mondo del genio artistico.Non dovremmo aspettare per lottare per un sistema alternativo migliore.Ci basterà il suo grido.
