Abstract
The growing integration of Artificial Intelligence (AI) systems into knowledge production, decision-making, and everyday activities has revamped debates about the nature and scope of trust and reliance. The standard view is to distinguish trust from reliance. While trust is an agent-directed attitude involving ethical and normative aspects, reliance does not require them and can also be directed at objects and processes. According to agent-directed accounts of trust, since AI lacks agency, it cannot be trusted. This article examines three alternative frameworks challenging agent-directed accounts of trust and supporting trust in AI. These frameworks better reflect human-AI interactions, align with everyday language, and fit current AI policy discussions. However, some argue, they overlook the core ethical features of trust. While standard views protect these features, they misrepresent actual user engagement with AI. The problem of whether we can truly trust AI systems or merely rely on them remains a central open problem in AI epistemology, with important policy implications.
La crescente integrazione dei sistemi di Intelligenza Artificiale (IA) nella produzione di conoscenza, nel processo decisionale e nelle attività quotidiane ha riacceso i dibattiti sulla natura e la portata della fiducia e dell’affidamento. La visione standard è quella di distinguere la fiducia dall’affidamento. Mentre la fiducia è un atteggiamento orientato verso un agente che coinvolge aspetti etici e normativi, l’affidamento non li richiede. Pertanto, mentre si può fare affidamento anche su oggetti e processi, secondo le teorie della fiducia che richiedono agenzia, poiché l’IA ne è priva, non si può avere fiducia in essa. Questo articolo esamina tre teorie alternative che sfidano le teorie della fiducia basate sull’agenzia e supportano la fiducia nell’IA. Queste teorie riflettono meglio le interazioni uomo-IA, si allineano al linguaggio quotidiano e si adattano alle attuali discussioni politiche sull’IA. Tuttavia, alcuni sostengono che trascurano le caratteristiche etiche fondamentali della fiducia. Sebbene le visioni standard proteggano queste caratteristiche, travisano le dinamiche reali del rapporto fra utenti e IA. Il problema se possiamo veramente fidarci dei sistemi di IA o semplicemente fare affidamento su di essi rimane un problema irrisolto nell’epistemologia dell’IA, con importanti implicazioni per quanto riguarda le politiche e la legislazione in materia di IA.
Citazione
Alessio Tacca, “Can AI-systems be trusted?”, in “APhEx 32”, 2025, pp. 113-135.
Numero della rivista
N°32/2025-APhEx
Visualizza e scarica il file PDF
Vai agli indici
AUTORI&AUTRICI
Ha conseguito il dottorato di ricerca in filosofia presso l’Università del New South Wales di Sydney nel 2019 con una tesi sullo scetticismo. Attualmente è assegnista di ricerca presso l’Istituto Universitario di Studi Superiori - IUSS Pavia e adjunct researcher all’Università della Tasmania. I suoi principali interessi di ricerca riguardano l’epistemologia, in particolare lo scetticismo antico e moderno, l’etica e l’epistemologia dell’Intelligenza Artificiale e la critica humiana.
