Temi

Ragionamento in condizioni di incertezza

di Margherita Benzi
31.10.2019

Il termine "intelligenza artificiale" (IA) assume diversi significati a seconda del contesto scientifico in cui ricorre. Questo saggio si concentra sui diversi modi di concepire e formalizzare il ragionamento con premesse incomplete, vaghe approssimative o tali per cui il legame tra premesse e conclusioni è più debole che nella logica classica. La maggior parte dei metodi qui trattati trova origine, o ha raggiunto piena valorizzazione, a partire dalla ricerca degli anni ottanta in intelligenza artificiale. Il dibattito sul ragionamento incerto ha coinvolto sin dagli inizi contributi provenienti non solo dalla logica e dall'informatica, ma anche dalla filosofia, dalla matematica e dalla psicologia, e si è esteso ad altri settori, quali quello dell'argomentazione giuridica o della diagnosi medica, provvedendo una adeguata cassetta degli attrezzi per i diversi contesti di applicazione. Negli ultimi decenni l'espressione "intelligenza artificiale" ha aumentato il proprio carico di ambiguità, dato che viene utilizzata, specialmente dai media, come sinonimo di machine learning, e/o di Big Data. Esplorare le conseguenze della "nuova" IA sulla nozione generale di incertezza richiederebbe un contributo a parte. Se qui ci concentriamo sugli approcci classici è perché: a) non pensiamo che siano obsoleti: di fatto sono tuttora in uso e si rivelano utili anche per capire che cosa sia realmente la 'nuova' IA; b) hanno contribuito a chiarire, o a vedere da nuove prospettive, concetti che in precedenza erano spesso assimilati tra loro - come vaghezza, incertezza, probabilità, imprecisione, approssimazione, default, …, prestandosi a un proficuo scambio di idee tra informatici, logici e filosofi.


"Uncertainty" has different meanings, depending on scientific contexts. This essay presents different approaches to reasoning with incomplete, vague, or approximate premises, and to inferences where the link between premises and conclusions is weaker than in classical logic. Most of the methods treated here originate, or reached full recognition, in research on artificial intelligence in the 1980s. From the beginning, the debate on uncertain reasoning included contributions from logic and computer science, but also from philosophy, mathematics and psychology, and it provided a useful toolbox for applications in a variety of fields, from legal argumentation to medical diagnosis. In the last decades, the expression "artificial intelligence" became ambiguous, given that it is used, especially in the media, as synonym of Machine Learning or Big Data. Exploring the consequences of the "new" artificial intelligence on the notion of uncertainty is beyond the scope of this essay. Here we focus on "classical" approaches because: a) we do not think that they are obsolete, as they are currently in use; moreover, they can help us to understand, by contrast, the new AI; (b) they helped to clarify, or to see from new perspectives, concepts that previously were often confused with each other – such as vagueness, uncertainty, probability, approximation. From a historical point of view, the effort to clarify uncertain reasoning offers a very interesting example of interdisciplinary debate.

Keywords: Reasoning; Uncertainty; Artificial intelligence.

Continua la lettura (non è necessario il reader PDF)

Scarica il file Pdf

Stampa Invia ad un amico Testo in pdf


Newsletter
Invia la tua email per iscriverti alla newsletter. Riceverai informazioni sugli aggiornamenti e sulle attività del sito


Collabora con noi. Controlla i prossimi Call for papers e invia il tuo testo. La redazione valuterà se pubblicarlo su uno dei prossimi numeri.