----------------------------
Vassura G. - Vassura M. - Venier O.
1. Introduzione.
Se la medicina moderna
non è ancora riuscita a liberarsi dall’esigenza di classificare le malattie lo
deve probabilmente a due ordini di motivi, uno filosofico e l’altro pratico: la
persistenza dei tradizionali modelli di rappresentazione della conoscenza per
categorie e la necessità di far seguire comportamenti adeguati alle situazioni
rappresentate. E’ paradossale come il progresso scientifico in ambito medico
non faccia altro che alimentare il ricorso alla classificazione mediante un
circuito vizioso di maggior conoscenza e adeguamento tassonomico.
Ciò di cui il medico oggi
sente il bisogno, piuttosto, è uno strumento che gli consenta di sintetizzare
in decisioni operative rapide l’enorme numero di dati di cui può disporre per
ogni paziente, talora così ridondante da accrescerne l’incertezza diagnostica
piuttosto che illuminarlo.
Gli eterni conflitti tra
deduzione e induzione, olismo e riduzionismo, arte medica e scienza, possono
essere condensati nel vecchio dualismo logica razionale e occhio clinico, estrema
sintesi dei due opposti versanti. Oggi la tecnologia offre uno strumento idoneo
a quietare le acque di questa polemica e soddisfare le esigenze di chi si
accosta alla medicina sia sul piano speculativo che su quello pratico.
Le Reti Neurali Artificiali
(RNA) in realtà non sono una novità, per lo meno in informatica. Esse, già
valide sul piano teorico, hanno per decenni dovuto pagare l’arretratezza
relativa della tecnologia, che ne ha ritardato sviluppo ed applicazioni. E’
anche da notare quanto biblici siano i tempi che consentono ad una nuova teoria
di attraversare discipline fra loro diverse e rendersi per così dire trasversale:
basti pensare al tempo intercorso tra la teoria dell’evoluzione di Darwin e la
pubblicazione di Edelman sul Darwinismo neurale (1) o il Gene Egoista di Dawkins (2)
.
Le RNA applicate alla
medicina, sembrano segnare la fine dell’esilio del ragionamento induttivo dai
piani nobili della clinica, esaltando al contempo entrambi gli aspetti della
logica diagnostica: analisi e sintesi (3). Mentre l’analisi costituisce la porzione trasparente del
procedimento, con la rilevazione e l’ordinamento dei dati, la sintesi
rappresenta quella operazione affatto implicita che ha sempre accostato la
medicina all’arte (4).
La tolleranza dei rumori
di fondo e la capacità di apprendimento sono le caratteristiche principali
dei sistemi basati su RNA che abbattono i limiti intrinseci della diagnostica
come la variabilità individuale, la stima dell’incerto (4), il
valore predittivo degli esami e quant’altro di poco lineare preveda una
diagnosi.
Il valore aggiunto delle
RNA è poi il portato epistemologico, ovvero “l’abilità di apprendere in modo
naturale la conoscenza che verrà impiegata successivamente per risolvere i
nostri problemi. L’elaborazione con l’impiego delle reti neurali consente di
prescindere dalla rappresentazione della conoscenza, poiché questa viene
acquisita con la sottomissione di esempi alla rete. Sono proprio questi esempi
che permettono alla rete di ricostruire la conoscenza implicita contenuta negli
esempi stessi.” (5).
2. Il procedimento
diagnostico.
La consapevolezza che
la diagnosi spesso venga condotta in condizioni di incertezza non deve prestare
il fianco ad affermazioni apodittiche come quelle che vogliono la medicina
un’arte pura, dominata da un principio di indeterminazione (6),
e quindi non suscettibile di un riscatto scientifico come procedimento
oggettivo e consequenziale. Casomai dimostra la carenza di strumenti
gnoseologici adeguati.
Di sicuro ci sono
problemi culturali di base, se è vero che ancora oggi il metodo ipotetico-deduttivo
viene indicato come l’unico metodo scientifico. In realtà diverse ricerche (7)
hanno dimostrato come, nell’attività clinica quotidiana, esso svolga un ruolo
di secondo piano, più adatto a scopi formativi o didattici, ma ampiamente
inadeguato per le necessità soprattutto degli esperti. Non è un caso che
gli esperti si avvalgano di un metodo induttivo, definito pattern-recognition
che sfrutta capacità percettive e cognitive per nulla lineari.
Una ulteriore conferma di
ciò la si può avere nelle fasi di allestimento di un sistema meccanico di
apprendimento, come avviene in molte ricerche sull’intelligenza artificiale.
Ebbene una delle difficoltà più critiche è quella di farsi descrivere dagli
esperti (umani) quell’insieme di regole che applicate ai dati possa fornire al
sistema la conoscenza di sfondo sufficiente per risolvere il problema. Al
contrario, quasi fosse un procedimento di reverse engineering, è molto
più agevole disporre esempi reali da cui estrarre per induzione regole generali
(8,9,10).
Tutti i medici
neolaureati hanno dovuto subire l’imbarazzo di vedersi superare da infermieri
esperti lungo il percorso diagnostico-decisionale: pur in mancanza di studi
formali la pattern-recognition è estremamente affidabile per lo scopo
diagnostico esattamente come un sistema meccanico di reti neurali, ancorché
privo di regole di inferenza, è molto più efficace di un sistema esperto
tradizionale (in ambiti complessi o per domini estesi). Inoltre la variabile tempo
non è affatto secondaria nel corso di una diagnosi medica e dunque
l’attribuzione di peso e direzione, nonché di relazioni reciproche fra i dati (7),
non può prescindere da necessità primarie per un medico: agire presto.
3. Il paradigma
connessionista.
Le RNA sono un modello
matematico-informatico di elaborazione dei dati di ispirazione biologica, che
simula la struttura ed il funzionamento dei circuiti neurali cerebrali per la
risoluzione di problemi complessi. Pur avendo radici storiche che risalgono ad
Alan Turing (1912-1954) rappresentano una delle avanguardie nel campo
dell’intelligenza artificiale e di sicuro “rappresentano il secondo miglior
modo per fare bene praticamente qualsiasi cosa” (11).
Le RNA si attagliano
perfettamente ai due scopi principali dell’I.A., soprattutto in ambito medico:
quello scientifico, proprio delle scienze cognitive, che aiuta a comprendere i
principi ed i meccanismi sottesi al ragionamento diagnostico; e quello
ingegneristico per la realizzazione di applicativi intelligenti e per la
soluzione di quesiti complessi e specialistici (9). Esse superano i
limiti posti dal paradigma simbolico nell’euristica classica dell’I.A.:
la necessità di codificare regole di inferenza precise, l’incapacità di
apprendimento e l’impossibilità di rappresentazione delle conoscenze non
formali o empiriche.
Il
superamento dei tradizionali sistemi esperti, basati su regole d’inferenza del
tipo ipotetico-deduttivo, avviene grazie a requisiti preziosi, propri delle
RNA: capacità di apprendimento, di sviluppare ipotesi multiple e simultanee, di
essere auto aggiornanti, di seguire una logica non rigida (fuzzy logic), di
fondarsi su casi reali e di possedere un’ottima tolleranza dell’errore: ciò che
rappresenta il cosiddetto paradigma connessionista in contrapposizione a quello
simbolico (5). “Si può affermare che i sistemi esperti sono la
moderna personificazione degli idiots savants, ad eccezione di quelli con
compiti limitati a domini molto ristretti e facilmente formalizzabili.” (9).
4. Le applicazioni.
E’ singolare notare come
esista un forte parallelismo nella filosofia della ricerca sia in medicina sia
nel campo dell’intelligenza artificiale, che culmina nel ricorso ad una
terminologia casualmente comune, come quando si parla di “conoscenza di sfondo”
, “inferenza”, “principio di indeterminazione”… Questa osservazione è più che
un fatto fortuito, quanto invece la conferma che una disciplina sia
complementare all’altra e che la seconda sia strutturata su modelli teorici e
pratici quanto mai adatti a metterla al servizio della prima.
Nella realizzazione di un
sistema diagnostico basato su RNA ci si imbatte nel vero grande problema di
questi sistemi. Dopo aver costruito la rete, infatti, essa deve essere addestrata
e testata con un elevato numero di esempi clinici nel dominio col
quale si dovrà poi confrontare. L’elaborazione dell’informazione richiede
dunque l’input di una grande dose di esperienza che sarà proporzionale
al grado di affidabilità che si intende raggiungere ed al numero di variabili
che costituiscono l’input. La ricerca di una casistica idonea è un problema
spesso critico in medicina ed a nostro parere responsabile in parte dello
scarsa diffusione di questi sistemi.
Nonostante ciò alcune
applicazioni sono esemplari unici di efficienza, con buona pace dei clinici
romantici che si fingono sordi quando sono costretti a constatare che “ la
precisione delle diagnosi che utilizzano regole ricavate per induzione
meccanica regge il paragone con le diagnosi di medici specializzati.” (8).
L’ortognatodonzia offre
al professionista le opportunità di un campo di applicazione privilegiato fra
le discipline mediche per il fatto che si presenta spoglio delle variabili più
soggettive ed aleatorie della semeiotica tradizionale: i sintomi del paziente.
Un quadro clinico dominato solo dai segni, quantificabili e classificabili con
strumenti idonei allo scopo, significa agire in un sistema chiuso (13) nel quale il ragionamento ipotetico deduttivo e quello per
pattern recognition si confortano a vicenda, costituendo un insolito e
fortunato modello di epistemologia pratica.
Digitando in input i
valori salienti delle caratteristiche cefalometriche e occlusali del paziente,
Sibilla restituisce in tempo reale la diagnosi sotto forma di indicazione
terapeutica per il caso. La conoscenza di sfondo del sistema, acquisita negli
ambienti più prestigiosi del settore, è stata sottoposta a ripetuti processi di
falsificazione in una sorta di connubio metodologico tra procedura bottom up
di stile baconiano e procedura top down tanto cara a Popper (8)
L’intero studio si è
compiuto grazie ad una collaborazione tra una società italiana a capitale
privato, la Medical Neural Engineering (MNE), e la Scuola di Specializzazione
in Ortognatodonzia dell’Università Ferrara, nonché la partecipazione di diverse
società scientifiche internazionali (14).
La bonifica costante
della casistica, l’addestramento ripetuto della rete ed i continui processi di
falsificazione hanno portato, dopo circa due anni, alla realizzazione di un
prodotto commerciale che diagnostica correttamente 97 casi su 100 proposti:
diremmo un caso evidente di imperfezione ottimale per uno strumento che
si qualifica ben al di sopra della media dei professionisti.
A’mazon è una
applicazione in fase di avanzata sperimentazione ma non ancora
commercializzata. Essa si confronta su un terreno che, da sempre, è ritenuto
congeniale ai sistemi basati su RNA: il riconoscimento delle immagini.
L’obbiettivo di A’mazon è
lo sviluppo di una rete dedicata al riconoscimento automatico di lesioni
tumorali nelle mammografie digitali ed alla classificazione dei diversi tipi di
tessuto mammario. A’mazon è una evoluzione di un programma che aveva
collaborato al progetto CALMA (Computer Assisted Library for MAmmography): un
progetto che si proponeva la creazione, l’organizzazione e la manutenzione di
un database di immagini mammografiche in formato digitale, e lo sviluppo di
algoritmi per una diagnosi automatica ed indipendente dal radiologo.
La rete è stata addestrata
con circa 3000 immagini mammografiche in gran parte refertate e validate presso
la clinica del prof. Lattanzio dell’Università di Bari. Essa è in grado di
riconoscere le lesioni a possibile eziologia neoplastica della mammella: in
particolare le lesioni stellate, che hanno un alto grado di difficoltà
interpretativa e pongono seri dubbi di diagnosi differenziale, vengono
correttamente identificate in circa il 70% dei casi.
Nonostante le performance
incoraggianti, A’mazon non si propone in alternativa al radiologo umano, ma,
poiché è stato dimostrato (19) che sensibilità e specificità
aumentano in modo significativo quando si fa analizzare separatamente a due
distinti radiologi un insieme di mammografie, riteniamo che si possa inserire
nella routine come secondo radiologo.
Applicazioni come questa,
per lo studio delle lesioni neoplastiche, mentre affascinano per la loro
valenza sociale e umana, impongono una notevole cautela per le ovvie
implicazioni medico legali.
Il progetto Vertigo
Vertigo è il nome di un
software per la diagnosi differenziale nel paziente affetto da sindrome
vertiginosa. Tale sindrome è un esempio classico di patogenesi ad eziologia
multipla, in cui cioè il difetto biologico che produce i sintomi può
risiedere in organi ed apparati molto diversi fra loro, la cui semeiotica
clinica non sempre è dirimente.
Il training clinico che
conduce all’esperienza per problemi di questo tipo passa
obbligatoriamente per processi di apprendimento di tipo relazionale tanto che
si tratti di esperti umani o meccanici. Più di venti anni fa ci si era accorti
che “sorprendentemente le regole derivate induttivamente erano viste con un
certo favore dagli esperti, salvo poche eccezioni. Questa osservazione
suggerisce che una procedura nella quale un esperto formuli regole derivate
induttivamente e le combini con un programma induttivo perfezionato potrebbe
condurre ad un nuovo convincente metodo per l’acquisizione della conoscenza”
(10).
Apprendimento
relazionale, calcolo parallelo e procedura bottom up trovano nel progetto
Vertigo punte di completa espressione.
Nella pratica la fortuna
ha voluto che quanto auspicato da Michalski fosse in effetti già stato
realizzato presso il Servizio di Vestibologia clinica del Policlinico
Universitario di Modena (Prof. Guidetti). L’esperienza clinica maturata in
quella sede ha permesso non solo di formalizzare regole diagnostiche di
tipo classico (alberi decisionali), ma anche di attribuire un peso ad
ogni variabile sensibile. Per quanto ne sappiamo questo esempio rappresenta una
rara eccezione di formalizzazione del ragionamento mediante l’utilizzo di reti
neurali biologiche come se fossero strumenti artificiali.
La messa in campo di un
software diagnostico in questo caso è stata piuttosto semplice dato che
euristica ed allenamento della rete erano stati compiuti dalla mente umana.
Riteniamo che questo rappresenti un segno di come e dove l’epistemologia futura
debba essere condotta.
Sosteniamo che oggi
Vertigo ponga diagnosi differenziale di sindrome vertiginosa meglio della media
dei professionisti non specializzati, pur essendo il progetto ancora in
cantiere.
5. Conclusioni.
E’ tempo che la medicina
esca dalle zone d’ombra che le abitudini, le credenze e spesso l’artigianato
calano sul campo della scienza. Tra queste la convinzione più deleteria è che
in medicina la verità non esista o che sia proteiforme, volubile. In realtà ciò
che fa di una disciplina una scienza esatta sono gli strumenti di cui dispone.
Il problema della
diagnosi è emblematico in questo senso. Oggi possediamo un mezzo in grado di
simulare il ragionamento induttivo che porta i grandi clinici a formulare una
diagnosi corretta, dimostrando al contempo come sia possibile renderla deterministica.
L’utilizzo delle RNA non
comporta un allargamento del sapere, ma una sua riproduzione oggettiva e
soprattutto un democratico mezzo di distribuzione della conoscenza, che supera
i limiti posti dall’abilità del singolo professionista o dal suo isolamento. La
loro duttilità inoltre consente di modellare le performance diagnostiche alla
luce di nuove acquisizioni o di diversi orientamenti della moda culturale.
Le più recenti concezioni
sullo sviluppo economicamente sostenibile in medicina (18), inoltre,
sembrano auspicare l’introduzione sistematica di applicazioni in grado di
ottimizzare le risorse e contenere la spesa. E’ consapevolezza comune che
atteggiamenti devianti dal percorso diretto sintomi-diagnosi-cura comporti un
tale spreco da far prevedere il collasso dell’attuale sistema in tempi molto
brevi. Ne siano prova l’insistenza con cui il terzo pagante forza l’ingresso
nella pratica clinica delle linee guida in medicina nonché gli sforzi per
individuare e sanzionare gli induttori di spesa eccessiva.
Non è per noi importante
risolvere la diatriba filosofica se le RNA rappresentino realmente una forma
alternativa all’intelligenza umana o se l’intelligenza non sia altro che la
capacità di manipolare dei simboli, perché l’obbiettivo ora è di stabilire in
che modo la scienza informatica possa ottimizzare la pratica diagnostica,
scaricando, come scriverebbe Dennett, il problema teorico a chi di competenza (15).
I risultati di queste
ricerche sono in gran parte ancora sperimentali, in quanto problematiche
medico-legali nonché la scarsa informatizzazione di strutture e personale
sanitari ne limitano l’impiego di routine. Però il consenso fornito loro da
informatici, medici e soprattutto dagli operatori di mercato, lasciano intuire
un futuro in grande espansione. Nel frattempo sarà opportuno lavorare in favore
di una nuova cultura di massa e scientifica, ben sapendo che “nessuna
tecnologia può essere divulgata ed accetta dalla comunità senza una diffusione
di cultura verso la comunità” (5) .
Siamo ovviamente
consapevoli che per quanto l’I.A. compia straordinari progressi essa non possa
ancora, almeno nel settore di nostra competenza, rappresentare una alternativa
all’agire umano: non già per carenza di autocoscienza o di
consapevolezza del proprio sapere, come sosteneva uno dei suoi più grandi
detrattori (16), poiché tale opposizione è facilmente aggirabile sul
piano filosofico (17). Ciò che piuttosto segna la superiorità
dell’intelletto umano è, parafrasando Gillies, la capacità di scegliere gli
attributi di base per descrivere il campo nel quale si formula l’ipotesi:
descrivere cioè la conoscenza di sfondo e le profonde assunzioni teoriche sulle
quali le regole induttive di inferenza possano elaborare i dati (8).
L’introduzione
trasversale delle RNA in molti campi del sapere umano è destinata a far cadere
un’opinione così autorevole da sembrare un dogma, vale a dire che “l’induzione,
cioè l’inferenza fondata su numerose osservazioni, è un mito. Non è né un fatto
psicologico, né un fatto della vita quotidiana e nemmeno una procedura
scientifica” (12).
6. Bibliografia.
1)
G. Edelman, Neural Darwinism: the theory of neuronal group selection, Basis
Books, New York, 1987.
2)
R. Dawkins, The selfish gene, Oxford University Press, Oxford, 1976.
3)
Harrison, Principi di
medicina Interna, XIV ed. it., pag. 4, ed. Mc Graw – Hill Italia, Milano.
4)
J.W. Hurst, Medicina clinica per il medico pratico, II ed. it., pagg. 6;11,
ed. Masson, Milano.
5)
G. Carrella, L’officina neurale, pagg. 26, 60, ed. FrancoAngeli, 1995,
Milano.
6)
Cecil, Trattato di
Medicina Interna, XVI ed., pag. XLIII, Piccin ed., Padova, 1985.
7)
S. Bernabè et al., Il giudizio clinico in medicina generale, pagg. 72-73,
92, ed. Utet, 1998, Milano.
8) D. Gillies, Intelligenza
artificiale e metodo scientifico, pagg. 36, 45-46, 48, 55, ed. it. Cortina,
1998, Milano.
9)
S. Cammarata, Reti neuronali – Dal Perceptron alle reti caotiche e
neuro-fuzzy, II ed., pagg. 1, 15, 17, 27, Etaslibri, Milano, 1997.
10)
R.S. Michalski, R.L. Chilautski, Learning by being told and learning from
examples, Journal of Policy Analysis and Information System, 4, pag. 151, 1980.
11)
S. Russell, P. Norvig, Intelligenza artificiale, pag. 628, ed. it.
Utet, 1998, Torino.
12)
K.R. Popper, Congetture e confutazioni. Lo sviluppo della conoscenza
scientifica, pag. 96, ed. it. Il Mulino, Bologna, 1985.
13) Vassura G., Vassura M., D’Aloja U.,
Venier O. Un nuovo
approccio alla diagnosi ortodontica: proposta di un modello neurale. Virtual
Journal of Orthodontics [serial online] 2001 Mar 15; 3(4):[6 screens]
14) Vassura G., D’Aloja U., Vassura M.,
Venier O. Une nouvelle
approche de diagnostic orthodontique, proposee selon un modele neural, Le Journal de
l’Edgewise, Vol. 44, 2001.
15)
D. Dennett, Cognitive Wheels: The Frame Problem in AI. In Minds, Machines,
and Evolution. C. Hookway, pagg. 128-151, Cambridge University Press, 1984.
16) M. Minsky, La società della mente, ed. it. Adelphi,
1989, Milano.
17) J.L. Casti, I cinque di
Cambridge, ed. Cortina, 1998, Milano.
18) AA.VV., Notizie di
POLITEIA - XIII, 45/1997, pp. 3-51.
19) R. Passariello, Elementi i tecnologia in radiologia e diagnostica
per immagini, 1990, Roma.