Ragionamento in condizioni di incertezza

Abstract

“Uncertainty” has different meanings, depending on scientific contexts. This essay presents different approaches to reasoning with incomplete, vague, or approximate premises, and to inferences where the link between premises and conclusions is weaker than in classical logic. Most of the methods treated here originate, or reached full recognition, in research on artificial intelligence in the 1980s. From the beginning, the debate on uncertain reasoning included contributions from logic and computer science, but also from philosophy, mathematics and psychology, and it provided a useful toolbox for applications in a variety of fields, from legal argumentation to medical diagnosis. In the last decades, the expression “artificial intelligence” became ambiguous, given that it is used, especially in the media, as synonym of Machine Learning or Big Data. Exploring the consequences of the “new” artificial intelligence on the notion of uncertainty is beyond the scope of this essay. Here we focus on “classical” approaches because: a) we do not think that they are obsolete, as they are currently in use; moreover, they can help us to understand, by contrast, the new AI; (b) they helped to clarify, or to see from new perspectives, concepts that previously were often confused with each other – such as vagueness, uncertainty, probability, approximation. From a historical point of view, the effort to clarify uncertain reasoning offers a very interesting example of interdisciplinary debate.

Il termine “incertezza” assume diversi significati a seconda del contesto scientifico in cui ricorre. Questo saggio si concentra sui diversi modi di concepire e formalizzare il ragionamento con premesse incomplete, vaghe approssimative o tali per cui il legame tra premesse e conclusioni è più debole che nella logica classica. La maggior parte dei metodi qui trattati trova origine, o ha raggiunto piena valorizzazione, a partire dalla ricerca degli anni ottanta in intelligenza artificiale. Il dibattito sul ragionamento incerto ha coinvolto sin dagli inizi contributi provenienti non solo dalla logica e dall’informatica, ma anche dalla filosofia, dalla matematica e dalla psicologia, e si è esteso ad altri settori, quali quello dell’argomentazione giuridica o della diagnosi medica, provvedendo una adeguata cassetta degli attrezzi per i diversi contesti di applicazione. Negli ultimi decenni l’espressione “intelligenza artificiale” ha aumentato il proprio carico di ambiguità, dato che viene utilizzata, specialmente dai media, come sinonimo di machine learning, e/o di Big Data. Esplorare le conseguenze della “nuova” IA sulla nozione generale di incertezza richiederebbe un contributo a parte. Se qui ci concentriamo sugli approcci classici è perché: a) non pensiamo che siano obsoleti: di fatto sono tuttora in uso e si rivelano utili anche per capire che cosa sia realmente la ‘nuova’ IA; b) hanno contribuito a chiarire, o a vedere da nuove prospettive, concetti che in precedenza erano spesso assimilati tra loro – come vaghezza, incertezza, probabilità, imprecisione, approssimazione, default, …, prestandosi a un proficuo scambio di idee tra informatici, logici e filosofi.


Citazione

Margherita Benzi, “Ragionamento in condizioni di incertezza”, in “APhEx 20”, 2019, pp. 35.

Numero della rivista

N° 20/2019-APhEx

Visualizza e scarica il file PDF

Vai agli indici

AUTORI&AUTRICI

Professoressa associata di logica e filosofia della scienza all’Università del Piemonte Orientale. Le sue aree di ricerca comprendono le teorie della causalità e dell'inferenza causale, con particolare riguardo all'ambito del ragionamento medico, le formalizzazioni del ragionamento in condizioni di incertezza in intelligenza artificiale, e gli aspetti filosofici connessi alla ricerca sui bias cognitivi.

CONDIVIDI