Article. What i write

Intelligenza Artificiale Responsabile: un'analisi sistematica dei rischi e delle contromisure

Pubblicato il 28 dicembre 2025
Vincenzo Calabro' | Intelligenza Artificiale Responsabile: un'analisi sistematica dei rischi e delle contromisure

Introduzione

L'intelligenza artificiale (IA) ha completato la sua transizione da innovazione tecnologica di nicchia a motore strategico per l'innovazione in quasi tutti i settori industriali. Questa evoluzione ha reso l'adozione di un approccio responsabile all'intelligenza artificiale (RAI) non solo una scelta etica, ma una vera e propria necessità operativa per le imprese che mirano a crescere in modo sostenibile e a mantenere la fiducia dei propri stakeholder (Cefriel, 2023). L'esigenza di sviluppare sistemi di IA equi, trasparenti e responsabili è passata da un insieme di principi astratti a un imperativo gestionale e operativo (Meimandi et al., 2025).
Tuttavia, come evidenziato da una crescente mole di ricerche, il problema centrale risiede nel profondo divario tra i principi etici di alto livello e la loro concreta implementazione pratica. Le sfide dell'IA non sono semplici fallimenti tecnici, ma fenomeni intrinsecamente socio-tecnici in cui gli algoritmi e i dati interagiscono con contesti sociali, culturali e istituzionali complessi. Studi come quello di Baldwin et al. (2025) dimostrano che è difficile operazionalizzare concetti come equità e trasparenza e che le soluzioni tecniche o procedurali puramente tecniche sono spesso insufficienti per affrontare problemi dalle radici strutturali.
L'obiettivo di questo articolo è quello di analizzare in modo sistematico i principali rischi associati ai sistemi di IA attraverso una lente socio-tecnica e di valutare le contromisure tecniche, procedurali e di governance oggi disponibili. Sosteniamo che solo un approccio olistico, che riconosca l'interdipendenza tra tecnologia e società, possa colmare il divario tra principi e pratica e guidare lo sviluppo di un'IA realmente affidabile.
Per raggiungere questo obiettivo, l'articolo è strutturato come segue. La Sezione 2 definirà i principi fondamentali che costituiscono il quadro concettuale della RAI. La Sezione 3 esplorerà in dettaglio le diverse categorie di rischio, dal bias algoritmico agli impatti socio-economici, interpretandoli come conseguenze della violazione di tali principi. La Sezione 4 presenterà un ventaglio di contromisure in risposta diretta ai rischi individuati. La Sezione 5 analizzerà il contesto normativo globale, con un focus particolare sull'AI Act europeo. Infine, la Sezione 6 trarrà le conclusioni, ribadendo la necessità di un approccio socio-tecnico e delineando le future direzioni della ricerca e della pratica.

Principi fondamentali dell'intelligenza artificiale responsabile

Per poter guidare in modo coerente e allineato ai valori sociali lo sviluppo, la governance e la regolamentazione dell'IA, è indispensabile disporre di un quadro concettuale condiviso. L'Intelligenza Artificiale Responsabile (RAI) fornisce questo quadro concettuale, offrendo un linguaggio comune e un insieme di principi guida per sviluppatori, responsabili politici e utenti finali. La definizione di un vocabolario comune è il primo passo per trasformare le aspirazioni etiche in requisiti concreti.
Secondo la definizione proposta da Herrera-Poyatos et al. (2025), un sistema di IA responsabile è un sistema che garantisce auditabilità e responsabilità durante la sua progettazione, lo sviluppo e l'utilizzo, in conformità con le specifiche e le normative applicabili al suo ambito di applicazione. Questa definizione pone l'accento su due pilastri fondamentali: la verificabilità e l'attribuzione della responsabilità, che sono essenziali per instillare fiducia nella società.
Sulla base di una sintesi della letteratura accademica e dei white paper del settore (Cefriel, 2023; Herrera-Poyatos et al., 2025), i principi fondamentali della RAI possono essere così riassunti:
• Equità e Non Discriminazione: i sistemi di IA devono essere progettati in modo da evitare di creare, perpetuare o amplificare pregiudizi ingiusti e discriminazioni nei confronti di individui o gruppi. Ciò richiede un'analisi critica dei dati di addestramento e degli algoritmi per garantire che i risultati siano equi e imparziali.
• Trasparenza e Spiegabilità: è fondamentale che le decisioni e i risultati generati dai sistemi di IA siano comprensibili e interpretabili dagli esseri umani. La trasparenza riguarda la tracciabilità del processo, mentre la spiegabilità (Explainable AI - XAI) si concentra sulla capacità di fornire giustificazioni chiare per un determinato output.
• Responsabilità e Verificabilità (Accountability & Auditability): è necessario che esistano meccanismi chiari per attribuire le responsabilità delle azioni e dei risultati di un sistema di IA. L'auditabilità garantisce che il sistema possa essere esaminato e verificato da terze parti per controllarne la conformità a standard, normative e requisiti etici.
• Privacy e Governance dei Dati: i sistemi devono garantire la protezione della privacy degli utenti e una gestione responsabile dei dati per tutto il loro ciclo di vita. Ciò include il rispetto delle normative sulla protezione dei dati e l'adozione di pratiche di minimizzazione e anonimizzazione dei dati.
• Robustezza Tecnica e Sicurezza: i sistemi di IA devono essere sicuri, affidabili e resilienti. Devono funzionare correttamente come previsto, essere protetti da attacchi esterni (ad esempio da parte di avversari) e disporre di piani di emergenza per gestire eventuali errori o situazioni impreviste.
• Supervisione e Agire Umano (Human Agency and Oversight): gli esseri umani devono mantenere un controllo significativo sui sistemi di IA, soprattutto in contesti ad alto rischio. Questo principio garantisce che l'autonomia della macchina non prevalga sulla capacità umana di intervenire, correggere o disattivare il sistema quando necessario.
È importante notare che la terminologia in questo campo non è sempre coerente. Termini come "Intelligenza Artificiale affidabile" (Trustworthy AI), "Intelligenza Artificiale etica" o "Intelligenza Artificiale incentrata sull'uomo" sono spesso usati in modo intercambiabile. Sebbene presentino sfumature diverse, un'analisi della letteratura mostra che questi concetti si sovrappongono ampiamente e condividono l'obiettivo comune di allineare lo sviluppo tecnologico ai valori e ai diritti umani fondamentali. La violazione di questi principi fondamentali nei complessi contesti socio-tecnici del mondo reale dà origine a rischi concreti che verranno ora analizzati nel dettaglio.

Analisi dei rischi: le sfide etiche e operative dell'IA

I rischi associati all'intelligenza artificiale non sono semplici fallimenti tecnici, ma complessi fenomeni socio-tecnici che hanno profonde implicazioni etiche, sociali e operative. Questi rischi sono la conseguenza tangibile della difficoltà di applicare i principi della RAI ai sistemi reali. Comprendere la natura di questi rischi è il primo passo per poterli mitigare efficacemente.

Bias algoritmico e ingiustizia strutturale

Il bias algoritmico è uno dei rischi più discussi e può derivare da diverse fonti, come identificato da Akgun e Greenhow (2022):
• Bias nei dati: dati di addestramento incompleti, non rappresentativi o che riflettono pregiudizi storici e sociali;
• Bias algoritmico: scelte di progettazione dell'algoritmo che incorporano ipotesi distorte o criteri decisionali che favoriscono determinati gruppi;
• Bias dell'utente: interazioni degli utenti con il sistema che possono introdurre o rinforzare schemi distorti.
Tuttavia, affrontare il bias richiede più di una semplice correzione statistica. Come avverte Hoffmann (2019), gli approcci puramente tecnici rischiano di creare una "patina di equità" (veneer of fairness), ovvero un'apparenza di imparzialità che nasconde le discriminazioni strutturali sottostanti. Focalizzarsi esclusivamente su metriche statistiche distoglie l'attenzione dalle responsabilità istituzionali e dalle riforme sistemiche necessarie. La sfida si intensifica ulteriormente quando si considera l'equità algoritmica intersezionale: l'analisi dei sottogruppi in modo isolato è insufficiente, in quanto non riesce a cogliere la complessità delle discriminazioni vissute dalle persone che appartengono a più categorie marginalizzate contemporaneamente.

La "scatola nera": carenza di trasparenza e spiegabilità

Molti modelli di IA avanzati, in particolare le reti neurali profonde, funzionano come "scatole nere". Come sottolineato da Jonathan e Han (2025), la loro natura opaca rende estremamente difficile comprendere il processo decisionale. Questa mancanza di trasparenza ha un impatto negativo diretto sulla fiducia, sulla responsabilità e sulla capacità di giustificare le decisioni algoritmiche, soprattutto nei settori critici come la sanità e la giustizia.
Paradossalmente, anche i tentativi di "aprire" la scatola nera possono introdurre nuovi rischi. Alcune tecniche di spiegabilità, come il ragionamento Chain-of-Thought (CoT), possono generare spiegazioni fuorvianti. Studi recenti (Turpin et al., 2023; Arcuschin et al., 2025) hanno dimostrato che le spiegazioni prodotte dai modelli possono apparire logiche e coerenti, ma non rispecchiano il reale processo decisionale dell'algoritmo, generando un falso senso di comprensione e sicurezza.

Rischi per la privacy e la sicurezza dei dati

La grande quantità di dati richiesta dai moderni sistemi di IA solleva gravi preoccupazioni per la privacy. La raccolta massiccia di dati, in particolare da parte di gruppi sottorappresentati e vulnerabili, comporta il rischio di sorveglianza, consenso non informato e sfruttamento. Senza un'adeguata governance, le iniziative volte a "raccogliere più dati" per migliorare l'equità possono esporre inavvertitamente le comunità a maggiori danni, come evidenziato nel discorso sull'equità intersezionale.
Oltre alla privacy, i sistemi di IA sono soggetti a specifiche vulnerabilità di sicurezza. Come evidenziato da Jatain et al. (2021), anche gli approcci orientati alla privacy, come l'apprendimento federato (Federated Learning), non sono immuni dalle minacce. Tra gli attacchi più comuni vi sono:
• Poisoning attacks: si tratta di attacchi in cui un malintenzionato corrompe i dati di addestramento per compromettere le prestazioni o il comportamento del modello,
• Inference attacks: questi attacchi mirano a estrarre informazioni sensibili sui dati di addestramento originali, analizzando gli output o i parametri del modello.

Impatti sociali ed economici

I rischi dell'IA vanno oltre l'individuo, producendo danni sociali su larga scala. Come avvertono i ricercatori Bender et al. (2021), i modelli linguistici generativi possono amplificare la disinformazione, favorire la manipolazione dell'opinione pubblica e, potenzialmente, erodere le istituzioni democratiche.
Altre preoccupazioni di vasta portata riguardano la sostituzione del lavoro umano e il rischio di aumento delle disuguaglianze economiche, nonché l'impatto ambientale. L'addestramento su larga scala dei modelli di IA richiede grandi quantità di energia, contribuendo a un significativo consumo energetico e a elevate emissioni di carbonio e sollevando questioni sulla sostenibilità a lungo termine di questa tecnologia (Banca dati delle domande sull'IA responsabile, 2024).
L'identificazione di questi rischi complessi e interconnessi evidenzia la necessità di un approccio altrettanto olistico per affrontarli. La prossima sezione esplorerà le contromisure disponibili, intese come una risposta integrata a queste sfide socio-tecniche.

Contromisure: Strategie per l'operazionalizzazione della responsabilità

La mitigazione dei rischi legati all'intelligenza artificiale non può basarsi su una sola soluzione, ma richiede un approccio multifattoriale che integri soluzioni tecniche, standard procedurali e una solida governance organizzativa. Solo combinando questi elementi è possibile rispondere in modo efficace alle sfide socio-tecniche individuate e passare dai principi astratti a pratiche concrete e misurabili.

Mitigazioni tecniche

Gli strumenti tecnici sono fondamentali per individuare e correggere i problemi a livello di modello e di dati. Tuttavia, è fondamentale riconoscerne i limiti e non considerarli come soluzioni definitive ai problemi strutturali.
Tecnica  Descrizione e Sfide 
Metriche di Equità  Approcci come la parità statistica (risultati simili tra i gruppi) o le pari opportunità (tassi di errore simili) vengono utilizzati per quantificare il bias. Tuttavia, come evidenziato dalla critica socio-tecnica (Hoffmann, 2019), queste metriche tendono a trattare i sintomi della discriminazione piuttosto che le sue cause strutturali, rischiando di applicare solo una "patina di equità". Inoltre, le diverse definizioni di equità sono spesso in conflitto tra loro. 
Metodi di Spiegabilità (XAI)  Tecniche come SHAP (SHapley Additive exPlanations), CoT (Chain-of-Thought) e RAG (Retrieval-Augmented Generation) mirano a rendere le decisioni del modello più trasparenti. Sfide: sebbene siano essenziali per affrontare il problema della "scatola nera", le spiegazioni possono essere imprecise o fuorvianti, dando l'illusione di una comprensione e un falso senso di sicurezza, come dimostrato da recenti studi (Turpin et al., 2023; Arcuschin et al., 2025). 
Apprendimento Federato (Federated Learning)  Un approccio di addestramento decentralizzato in cui i dati rimangono sui dispositivi degli utenti, migliorando la privacy. Il modello centrale viene aggiornato aggregando i contributi locali. Sfide: sebbene sia utile per la privacy, è vulnerabile ad attacchi specifici come il poisoning e l'inference attack (Jatain et al., 2021), che richiedono contromisure di sicurezza aggiuntive. 
Immunizzazione del Modello  Proposto da Raza et al. (2025), questo approccio "vaccina" i modelli contro la disinformazione. Consiste nel perfezionare il modello su un piccolo insieme di dati contenenti falsità etichettate esplicitamente, così da rafforzare la sua capacità di riconoscere e respingere le affermazioni ingannevoli. Sfide: richiede un'attenta e sicura gestione dei dati falsi e un monitoraggio continuo per garantirne l'efficacia. 

Standard procedurali e documentazione

La documentazione strutturata è fondamentale per garantire trasparenza, responsabilità e auditabilità. Gli artefatti standardizzati permettono di tracciare le decisioni prese durante il ciclo di vita di un sistema di IA e di affrontare direttamente i rischi legati al bias dei dati e all'opacità.
• Model Cards (Mitchell et al., 2019): questi documenti forniscono informazioni importanti sulle prestazioni, sui casi d'uso previsti e sulle limitazioni dei modelli addestrati. Forniscono informazioni fondamentali sulle metriche di valutazione, sull'equità e sui potenziali bias,
• Datasheets for Datasets (Gebru et al., 2021): sono disponibili schede tecniche per i set di dati che ne documentano la motivazione, la composizione e il processo di raccolta. Rappresentano una contromisura procedurale fondamentale al rischio di "bias nei dati", aiutando a identificare i problemi di rappresentatività prima dell'addestramento,
• Data Statements (Bender & Friedman, 2018): queste dichiarazioni contestualizzano i dati, descrivendo le caratteristiche della popolazione da cui sono stati raccolti e le ipotesi socio-culturali che potrebbero influenzarli, promuovendo una riflessione critica sul loro utilizzo.

Governance organizzativa e cultura etica

La tecnologia e le procedure sono inefficaci senza una solida struttura di governance e una cultura aziendale orientata alla responsabilità. I framework di governance adattivi, come ARGO (Adaptive RAI Governance), si sono rivelati particolarmente efficaci nel conciliare la supervisione centralizzata con l'autonomia locale, evitando colli di bottiglia e garantendo comunque l'allineamento strategico (Meimandi et al., 2025).
Le buone pratiche per le imprese includono (Cefriel, 2023):
• Aumentare la consapevolezza interna attraverso percorsi di formazione specifici sui rischi e i principi della RAI,
• Definire ruoli e responsabilità chiari per la supervisione etica e la gestione del rischio,
• Condurre valutazioni del rischio sistematiche, utilizzando strumenti come il RAI Question Bank (2024) per guidare l'analisi attraverso domande strutturate che coprono tutti i principi etici.

Partecipazione e audit esterno

L'inclusione di prospettive esterne è fondamentale per individuare i punti ciechi e garantire che i sistemi di IA rispondano alle reali esigenze della società. Un meccanismo innovativo di audit partecipativo sono i "bias bounties". Ispirati ai "bug bounty" della cybersecurity, questi programmi premiano gli utenti e gli esperti esterni che individuano bias e comportamenti dannosi. Questo approccio rappresenta una risposta diretta ai limiti dei test automatici, in quanto consente di individuare problemi contestuali visibili solo dalle comunità direttamente interessate.
Se fossero implementate in modo integrato, queste contromisure fornirebbero una solida base per la RAI. Tuttavia, la loro adozione è sempre più guidata e inquadrata da normative che ne impongono l'applicazione.

Il contesto normativo: standard e regolamenti per un'IA affidabile

Il crescente consenso sui rischi socio-tecnici dell'intelligenza artificiale ha spinto i governi e le organizzazioni internazionali a sviluppare quadri normativi per garantirne uno sviluppo sicuro e affidabile. Queste normative mirano a creare un ecosistema di fiducia, stabilendo regole chiare per gli sviluppatori, i fornitori e gli utenti dei sistemi di IA.

L'AI Act dell'Unione Europea

L'AI Act (Regolamento (UE) 2024/1689) dell'Unione Europea è una delle iniziative legislative più complete e influenti a livello globale. Il suo tratto distintivo è un approccio basato sul rischio che classifica i sistemi di IA in diverse categorie (rischio inaccettabile, alto, limitato, minimo) e impone obblighi proporzionati al livello di rischio.
Per i sistemi di IA ad alto rischio, come quelli utilizzati nei settori critici quali la sanità, le infrastrutture critiche o la selezione del personale, l'AI Act stabilisce una serie di requisiti obbligatori, sintetizzati da Herrera-Poyatos et al. (2025) come segue:
• Un sistema di gestione del rischio continuo per tutta la durata del ciclo di vita,
• Una solida governance dei dati e della loro qualità per minimizzare i bias,
• La registrazione automatica delle attività (log) garantisce la tracciabilità,
• Un'adeguata trasparenza, fornendo agli utenti informazioni chiare sulle capacità e sulle limitazioni,
• Una sorveglianza umana efficace per prevenire o minimizzare i rischi,
• Un elevato livello di robustezza tecnica, sicurezza e accuratezza.

Altre iniziative globali e standard

Oltre all'AI Act, diverse altre iniziative contribuiscono a definire il panorama normativo globale:
• I Principi sull'IA dell'OCSE forniscono raccomandazioni di policy ai governi per promuovere un'IA innovativa e affidabile incentrata sui valori umani,
• Il NIST AI Risk Management Framework (RMF), sviluppato dal National Institute of Standards and Technology (NIST) degli Stati Uniti, offre un quadro volontario che aiuta le organizzazioni a mappare, misurare e governare i rischi legati all'intelligenza artificiale.
A livello di standardizzazione tecnica, lo standard ISO/IEC 42001 svolge un ruolo fondamentale, specificando i requisiti per stabilire, implementare e migliorare continuamente un sistema di gestione dell'intelligenza artificiale (AIMS) all'interno di un'organizzazione.

Sfide e opportunità della regolamentazione

La regolamentazione dell'IA presenta una duplice natura. Da un lato, come emerso dallo studio di Baldwin et al. (2025), la regolamentazione è considerata uno strumento essenziale per instillare fiducia nell'ecosistema dell'IA e garantire la sicurezza. Stabilendo standard minimi, la normativa può favorire un'adozione responsabile della tecnologia. D'altro canto, c'è il timore che una regolamentazione troppo rigida possa ostacolare l'innovazione e aumentare gli oneri di conformità, soprattutto per le piccole e medie imprese.
Trovare un equilibrio tra la protezione dei diritti fondamentali e la promozione dello sviluppo tecnologico rappresenta la sfida principale per i legislatori. Da un lato, la regolamentazione definisce gli obiettivi di sicurezza da raggiungere; dall'altro, spetta alla comunità scientifica e all'industria perfezionare il "come", sviluppando metodi, strumenti e pratiche innovative per un'intelligenza artificiale realmente responsabile.

Conclusioni e prospettive future

L'analisi condotta in questo articolo dimostra che l'intelligenza artificiale responsabile è una sfida intrinsecamente socio-tecnica, la cui soluzione non può essere trovata in una singola metrica o in un singolo algoritmo. Al contrario, richiede un approccio olistico che integri sinergicamente tecnologia, processi e politiche, riconoscendo che i sistemi di IA operano all'interno di contesti sociali complessi. L'operazionalizzazione dell'etica nell'IA non è un traguardo finale, ma un processo continuo di valutazione e adattamento essenziale per allineare l'innovazione con i valori umani.
Dall'analisi emergono alcuni concetti chiave che delineano il percorso verso un'IA più responsabile:
• La responsabilità va oltre la tecnica: i principi etici, come l'equità, non possono essere ridotti a metriche quantitative. Le soluzioni tecniche, sebbene utili, rischiano di affrontare i sintomi della discriminazione piuttosto che le sue radici strutturali. È necessario adottare un approccio critico che tenga in considerazione il contesto sociale e le dinamiche di potere;
• La governance adattiva è fondamentale: in un settore in rapida evoluzione, i modelli di governance rigidi sono destinati a fallire. I framework flessibili, che bilanciano la supervisione centrale con l'autonomia locale, sono indispensabili per rispondere con agilità alle nuove sfide tecnologiche e normative;
• Trasparenza e revisione sono i pilastri della fiducia: quest'ultima deve essere costruita attivamente attraverso processi verificabili, documentazione standardizzata e meccanismi di responsabilità chiari. L'audit interno ed esterno è una condizione necessaria per garantire che i sistemi operino in modo sicuro e conforme alle aspettative della società.
Guardando al futuro, la ricerca dovrebbe concentrarsi su alcune aree prioritarie. È necessario sviluppare metodi più efficaci per affrontare l'equità intersezionale, superando i limiti delle analisi basate su sottogruppi isolati. È inoltre urgente la creazione di benchmark standardizzati per valutare in modo oggettivo e comparabile la conformità ai principi RAI. Infine, sono necessari ulteriori studi sui modelli di collaborazione uomo-IA per progettare sistemi che possano potenziare l'azione e il giudizio umano. Affrontare queste sfide sarà fondamentale per realizzare il potenziale di un'IA che sia non solo potente, ma anche equa e al servizio dell'umanità.

Riferimenti Bibliografici

1. Akgun, S., & Greenhow, C. (2022). How to Support Critical AI literacy in K-12 Education: Raising Critical Consciousness towards Ethical AI. In Symposium on Learning about Data, Algorithms, and Algorithmic Justice on TikTok.
2. Arcuschin, F., Blank, R., Globus-Harris, I., Hajian, S., & Hendrycks, D. (2025). Chain-of-Thought Reasoning Without Revision is a Fallacy. Preprint, arXiv.
3. Baldwin, W., Ghanavati, S., & Wörsdörfer, M. (2025). Understanding Ethical Practices in AI: Insights from a Cross-Role, Cross-Region Survey of AI Development Teams. Preprint, arXiv.
4. Bender, E. M., & Friedman, B. (2018). Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science. Transactions of the Association for Computational Linguistics, 6, 587–604.
5. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency.
6. Cefriel. (2023). Intelligenza Artificiale responsabile: Cos’è, perchè se ne parla, cosa devono fare le imprese? White Paper.
7. European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (Artificial Intelligence Act).
8. Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumé III, H., & Crawford, K. (2021). Datasheets for datasets. Communications of the ACM, 64(12), 86–92.
9. Herrera-Poyatos, A., Del Ser, J., López de Prado, M., Wang, F.-Y., Herrera-Viedma, E., & Herrera, F. (2025). RESPONSIBLE ARTIFICIAL INTELLIGENCE SYSTEMS: A ROADMAP TO SOCIETY’S TRUST THROUGH TRUSTWORTHY AI, AUDITABILITY, ACCOUNTABILITY, AND GOVERNANCE. Preprint, arXiv.
10. Hoffmann, A. L. (2019). Where fairness fails: data, algorithms, and the limits of antidiscrimination discourse. Information, Communication & Society, 22(7), 900–915.
11. Jatain, D., Sethi, P., & Patra, P. K. (2021). A comprehensive study on federated learning. In Responsible Artificial Intelligence: A Structured Literature Review. Preprint, arXiv.
12. Jonathan, G. M., & Han, S. (2025). GenAI in Public Sector Transformation: Balancing Promise and Prudence. In Evolving Generative AI: Entangling the Accountability Relationship.
13. Meimandi, K. J., et al. (2025). An Adaptive Responsible AI Governance Framework for Decentralized Organizations. Preprint, arXiv.
14. Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I. D., & Gebru, T. (2019). Model Cards for Model Reporting. Proceedings of the Conference on Fairness, Accountability, and Transparency.
15. Raza, S., Qureshi, R., Lotif, M., & Emmanouilidis, C. (2025). Just as Humans Need Vaccines, So Do Models: Model Immunization to Combat Falsehoods. Preprint.
16. Responsible AI Question Bank. (2024). Responsible AI Question Bank: A Comprehensive Tool for AI Risk Assessment. Preprint, arXiv.
17. Turpin, M., Michael, J., Perez, E., & Bowman, S. R. (2023). Language models don't always say what they think: Unfaithful explanations in chain-of-thought prompting. Preprint, arXiv.