E-Mail: [email protected]
- New York, secondo stato USA dopo California, legifera sulla sicurezza IA.
- Multe fino a 1 milione di dollari per mancata segnalazione sulla sicurezza.
- Entro 72 ore la segnalazione degli incidenti allo Stato.
- Trump contesta le leggi statali sull'IA, possibile scontro in tribunale.
- La legge prevede piani per prevenire uso IA in armi chimiche.
## La firma della legge RAISE Act a New York: Un passo avanti nella regolamentazione dell’IA
Il 31 dicembre 2025, la governatrice di New York, Kathy Hochul, ha promulgato la legge RAISE Act, segnando un momento significativo nella regolamentazione dell’intelligenza artificiale (IA) negli Stati Uniti. New York si posiziona così come il secondo Stato americano, dopo la California, ad adottare una legislazione di rilievo sulla sicurezza dell’IA. La legge impone ai grandi sviluppatori di IA di rendere pubbliche le informazioni sui loro protocolli di sicurezza e di segnalare incidenti di sicurezza allo Stato entro 72 ore. Inoltre, istituisce un nuovo ufficio all’interno del Dipartimento dei Servizi Finanziari con il compito di monitorare lo sviluppo dell’IA.
Le aziende che non rispetteranno l’obbligo di presentare i rapporti sulla sicurezza o che forniranno dichiarazioni false potranno essere soggette a multe fino a 1 milione di dollari, cifra che sale a 3 milioni di dollari in caso di violazioni successive. La legge si allinea con la legislazione simile firmata in California nel settembre 2025, creando un quadro di riferimento unificato tra gli Stati leader nel settore tecnologico.

## Dettagli e implicazioni della RAISE Act
La RAISE Act richiede alle aziende di sviluppare piani di sicurezza per prevenire l’uso dei modelli di IA nello sviluppo di armi chimiche, biologiche o nucleari, e per garantire che i modelli non operino senza un intervento umano significativo. La legge prevede che gli sviluppatori segnalino le violazioni allo Stato e consente al procuratore generale di citare in giudizio gli sviluppatori per violazioni della legge commesse dai loro modelli.
La governatrice Hochul ha negoziato con i legislatori statali per apportare modifiche alla legge, in particolare rimuovendo una disposizione che avrebbe impedito agli sviluppatori di implementare nuovi modelli “se ciò creasse un rischio irragionevole di danno critico”. Questa modifica allinea la legge di New York alle normative della California.
## Reazioni e controversie nel settore tecnologico
Nonostante il sostegno di aziende come OpenAI e Anthropic, che hanno espresso la necessità di una legislazione federale, la RAISE Act ha suscitato reazioni contrastanti nel settore tecnologico. Un super PAC sostenuto da Andreessen Horowitz e dal presidente di OpenAI, Greg Brockman, sta cercando di sfidare l’Assemblyman Alex Bores, co-sponsor della legge.
Il presidente Donald Trump ha firmato un ordine esecutivo che incarica le agenzie federali di contestare le leggi statali sull’IA, un’azione che potrebbe essere oggetto di contestazione in tribunale. L’ordine esecutivo, sostenuto dal “zar dell’IA” di Trump, David Sacks, rappresenta un tentativo di limitare la capacità degli Stati di regolamentare l’IA.
## Verso un futuro regolamentato dell’IA
La firma della RAISE Act a New York rappresenta un passo significativo verso la creazione di un quadro normativo per l’IA negli Stati Uniti. La legge, insieme alla legislazione simile in California, potrebbe fungere da modello per una regolamentazione federale più ampia. La necessità di una regolamentazione dell’IA è sempre più evidente, considerando i potenziali rischi e le implicazioni etiche associate a questa tecnologia in rapida evoluzione.
L’iniziativa di New York, pur con le sue modifiche e compromessi, dimostra un impegno a bilanciare l’innovazione tecnologica con la sicurezza pubblica e la responsabilità. Resta da vedere come la legge verrà implementata e quali saranno i suoi effetti a lungo termine sull’industria dell’IA, ma è chiaro che la regolamentazione dell’IA è diventata una priorità per i governi statali e federali.
## L’eco della regolamentazione: Un confronto transatlantico
La firma della RAISE Act a New York solleva un’eco familiare nel panorama globale della regolamentazione dell’IA. Non possiamo fare a meno di notare una certa somiglianza con le iniziative europee volte a regolamentare l’IA. Sembra che il “Brussels effect” sia ancora in azione, influenzando le politiche al di là dei confini europei. E cosa dire della Cina? Anche lì si stanno muovendo verso una regolamentazione dell’IA, dimostrando che la necessità di un quadro normativo è sentita a livello globale.
—
Amici, parliamoci chiaro: l’automazione, la scalabilità produttiva e la trasformazione digitale sono concetti che sentiamo ripetere in continuazione, ma cosa significano davvero? Nel contesto della RAISE Act, possiamo dire che l’automazione si riferisce alla capacità dei sistemi di IA di svolgere compiti senza intervento umano. La scalabilità produttiva, invece, riguarda la capacità di aumentare la produzione di modelli di IA senza compromettere la sicurezza. Infine, la trasformazione digitale implica l’adozione di tecnologie digitali per migliorare i processi aziendali e la governance dell’IA.
Ma andiamo oltre. Un concetto avanzato legato a tutto questo è la governance algoritmica, ovvero la capacità di monitorare e controllare gli algoritmi di IA per garantire che siano conformi alle normative e ai principi etici. Questo richiede competenze specialistiche e strumenti sofisticati per analizzare il comportamento degli algoritmi e prevenire potenziali rischi.
Ora, fermiamoci un attimo a riflettere: siamo davvero pronti per un futuro in cui l’IA è sempre più presente nelle nostre vite? Abbiamo gli strumenti e le competenze necessarie per governare questa tecnologia in modo responsabile? La RAISE Act è un passo nella giusta direzione, ma la strada è ancora lunga e piena di sfide.
- Testo completo della legge RAISE Act, con emendamenti e dettagli specifici.
- Comunicato stampa ufficiale della governatrice Hochul sulla legge RAISE Act.
- Sito ufficiale del Dipartimento dei Servizi Finanziari di New York, per aggiornamenti normativi.
- Politica di OpenAI per la segnalazione di problemi, inclusa la sicurezza dell'IA.








