PM --> HOME PAGE ITALIANA --> ARGOMENTI ED AREE --> NOVITÁ --> PSICHIATRIA E SISTEMI COMPLESSI


PSYCHOMEDIA
SCIENZA E PENSIERO
Psichiatria e Sistemi Complessi



Reti neurali e modelli previsionali.

Apprendere dall'esperienza come i sistemi complessi si semplificano
in comportamenti a rischio per prevenirne l'occorrenza.

di Fabio Canegalli

Unità operativa Psichiatrica - Azienda U.S.S.L. 43, Ospedale Civile di Vigevano (PV)
Presidente dell'associazione di ricerca Neuronet



La questione, dal punto di vista epistemologico, potrebbe apparire, a prima vista, come un tentativo azzardato di applicare il modello matematico ad ambiti scientifici assai lontani, producendo distorsioni e conclusioni del tutto arbitrarie.
In realtà tale modello, la cui diffusione è ormai tale da coinvolgere aree di ricerca vastissime, non nasce da una semplice operazione di adattamento di un sistema funzionante in altri settori scientifici, alle problematiche del comportamento umano e della sua prevedibilità.
La stessa evoluzione negli ultimi decenni delle dottrine filosofiche e psiche correlate testimonia un progressivo cambiamento dell'assetto teorico entro il quale ci si trova a muoversi.
Senza entrare nei dettagli di tale evoluzione, mi sembra tuttavia opportuno inquadrare meglio tale recente fenomeno del connessionismo ed in particolare delle reti neurali artificiali.
La filosofia , le scienze cognitive e la linguistica si sono da sempre occupate del problema del linguaggio e del significato definendo quest'ultimo come quell'ambito di realtà richiamato da un segno. Molti si sono cimentati nel cercare di definire il rapporto esistente tra il segno e la realtà che tale segno richiama. Gli stoici consideravano il significato effetto di una corrispondenza precisa tra il linguaggio e la realtà da questo rappresentata. Passando attraverso Husserl, Heidegger, Merleau-Ponty, Minsky, Varela-Thompson-Rosch per citarne solo alcuni, il concetto di significato si è andato modificando diventando esso il risultato della relazione dinamica ed in continuo riassestamento che chi percepisce ha con il segno e con la realtà che tale segno identifica per lui.
"Non ha senso parlare del cervello come se fabbricasse pensieri come le fabbriche fanno automobili. La differenza è che il cervello usa processi che modificano se stessi, e che quindi non possono venire separati dai prodotti che essi producono. In particolare il cervello fabbrica ricordi, che modificano il modo con cui penseremo in seguito. L'attività principale del cervello consiste nell'apportare modifiche a se stesso" (Minsky, 1989, pag 563).
Varela-Thompson-Rosch sostengono la necessità di superare ogni distinzione cartesiana tra realtà esterna ed interna poiché non occorre più un fondamento su cui poggiare la propria epistemologia, realtà esterna o interna, ma bisogna riconoscere il loro reciproco determinarsi e definirsi; "..nella cognizione vissuta, i processi sensori e motori, la percezione e l'azione, sono fondamentalmente inscindibili. In realtà negli individui i due aspetti non sono solamente legati in modo contingente, ma si sono anche evoluti in modo parallelo" (Varela-Thompson-Rosch, 1991, pag 206)
Non esisterebbe più quindi isomorfismo tra linguaggio e realtà; il significato emergerebbe da una fitta rete di concetti, segni, simboli, significati stessi che ne richiamano altri; in altre parole il significato consisterebbe proprio in tale intreccio, sarebbe anteriore al linguaggio.
La linguistica più recente lavora con modelli complessi per la comprensione di come avvenga il processo di lettura (modello di lettura di Carpenter e Just) e l'attribuzione di significato al testo letto; tali modelli hanno ormai abbandonato l'illusione di poter ridurre la semantica a semplici regole cercando una comprensione del linguaggio al di fuori della sua utilizzazione e del suo utilizzatore.
Parlando di linguaggio e di significato non si può più tralasciare il fatto che prima ancora che esso venga percepito mentalmente e quindi categorizzato esiste già un rapporto "fisico" tra chi percepisce e l'oggetto. Le modifiche date da tale contatto fisico comprendono anche una preparazione ad una risposta successiva tramite una modifica dei recettori preposti alla percezione di tale oggetto (effetto Carpenter, P300).
Molti sostengono, oggi, che solo prendendo le mosse da una pragmatica si possa poi sviluppare una semantica e da essa una sintattica. I tentativi di percorrere tale cammino in senso inverso hanno condotto a considerare gli oggetti reali come entità esistenti di per se, o ad interpretare il significato come una stretta corrispondenza tra oggetti reali e segni, oppure a considerare la semantica come una manipolazione di un sistema di simboli (segni che possiedono un particolare rapporto analogico con l'oggetto che rappresentano).
Se estendiamo le considerazioni svolte fino ad ora intorno al concetto di significato, al linguaggio ed alla lettura, pur nella loro brevità e forse confusività, ai processi cognitivi ci troviamo di fronte ad una prima grande distinzione tra le scienze cognitive in generale o meglio la psicologia cognitivista ed il connessionismo.
Dalle considerazioni precedenti si evince come ormai sia improponibile l'equivalenza tra il pensiero umano e la manipolazione di simboli così come essi vengono studiati dalla matematica ed in particolare dalla logica. La psicologia cognitiva e la stessa Intelligenza Artificiale hanno basato il loro lavoro su tale assunto ed è tale aspetto che differenzia il connessionismo e le Reti Neurali Artificiali da tali posizioni precedenti.
L'esempio della "stanza cinese di Searle" ben rappresenta tale concetto: una macchina che manipola simboli è paragonabile ad una persona che, non conoscendo il cinese, viene chiusa in una stanza con un manuale che gli illustra nella sua lingua come rispondere agli ideogrammi che gli vengono proposti da alcuni cinesi, tramite altrettanti ideogrammi, rispettando le regole del manuale. A prescindere dall'impossibilità di scrivere un tale manuale, che possa prevedere tutte le possibili combinazioni di testo (tuttavia tale tentativo è quello che ha cercato ed ancora cerca di fare una branca dell'Intelligenza Artificiale), è evidente che, il fatto che la persona risponda correttamente, non significa che conosce bene il cinese. Egli non comprende le domande né le risposte che lui stesso fornisce.
Tale situazione richiama indiscutibilmente il modello di rappresentazione simbolica del pensiero umano tipico dei cognitivisti e dell'intelligenza artificiale.
Il connessionismo non ha abbandonato del tutto il concetto di rappresentazione, tuttavia essa è costituita da un particolare pattern di attivazione delle varie connessioni interne di una rete neurale, nasce cioè da una interazione dinamica.
L'approccio al pensiero umano di tipo connessionista è sub-simbolico, mentre quello cognitivista è simbolico.
Questo tipo particolare di rappresentazione quantitativa, dinamica e distribuita consente comunque di parlare ancora di rappresentazione.
"In realtà se si desidera recuperare il senso comune, allora si deve invertire l'atteggiamento rappresentazionista e trattare il know-how contesto-dipendente non come un artefatto residuo che possa essere gradualmente eliminato con la scoperta di regole più sofisticate, ma, in realtà, come l'essenza stessa della cognizione creativa" (Varela, Thompson e Rosch, 1991, pag 179)
"Forse dovremmo abituarci a nuovi tipi di spiegazione dei fenomeni mentali, diversi da quelli simbolici che hanno una così lunga storia e tradizione alle spalle e più simili a quelli che i fisici ed in generale gli scienziati della natura danno dei fenomeni fisici" (Parisi, 1989, pag 64)
Nel campo dell'intelligenza artificiale il problema della separazione tra l'universo dei simboli e la realtà concreta ha portato a tentativi di legare artificialmente a priori un simbolo ad un oggetto, uno schema rigido ad una situazione reale, invece di lasciare che, come negli organismi viventi, tale legame sorgesse spontaneamente con l'esplorazione dell'ambiente.
Non è possibile una distinzione netta tra il rumore di fondo e l'informazione ma occorre lasciare che quest'ultima emerga spontaneamente dal rumore tramite l'apprendimento.
"Quando esaminiamo un'intelligenza di livello molto semplice, troviamo che rappresentazioni e modelli espliciti del mondo non sono altro che un impedimento. L'uso del mondo come modello di se stesso sembra essere un approccio migliore" (Brooks, 1987).
Quello che è apparso evidente nell'approccio connessionista è che proprio quando si presentavano alle macchine problemi apparentemente più semplici, meno logici e più pratici, le difficoltà che esse incontravano erano assai maggiori ed a volte insormontabili e che tali difficoltà non diminuivano fornendo algoritmi sempre più complessi ed una mole di dati sempre maggiore (che conducevano ad intasare, a rallentare se non bloccare il sistema).
Solo modificando il tipo di approccio, consentendo alle macchine di apprendere anche sbagliando, correggendo i propri errori e sfumando i significati, si producono risultati simili agli esseri viventi.
Le reti neurali, pur semplificando il funzionamento dei sistemi neurali viventi, hanno dimostrato di poter superare le difficoltà contro cui l'intelligenza artificiale si è trovata a cozzare nel confrontarsi con la sensibilità al contesto e le capacità adattative tipiche corrispettivo biologico.
Un essere vivente nel suo ambiente attribuisce un significato a tutto ciò che percepisce ed anzi percepisce proprio in quanto da significato; i due momenti non sono differenziabili temporalmente ed anzi si influenzano reciprocamente in una rete di interazioni parallele e distribuite non più immaginabili come una serie di eventi in successione lineare in cui ogni evento precede temporalmente e causalmente il successivo.
Non si tratta di riprodurre l'intelligenza umana con le macchine ma di comprendere come essa opera per utilizzare al meglio alcuni strumenti di simulazione capaci di produrre significati propri e di operare costantemente su di essi, in modo creativo e adattativo, non programmato, interagendo con l'ambiente in cui sono immersi.
Il fatto poi che la simulazione artificiale, con tutti i limiti e le semplificazioni necessarie, ci permetta di aggiornare i nostri modelli di funzionamento del pensiero, ci dimostra ancora una volta quanto spesso l'intelligenza pragmatica (in questo caso umana) riesca proprio laddove la logica ha fallito.
Non solo il modello di funzionamento del nostro pensiero ci aiuta nel creare sistemi neurali ma tali sistemi ci consentono di trarre conclusioni sul pensiero stesso; ecco come l'interazione costante abbrevia i tempi con cui noi modifichiamo i nostri significati, noi stessi e l'ambiente i cui siamo immersi.
"L'infondatezza è la condizione stessa del mondo dell'esperienza umana, così riccamente intessuto ed interdipendente ....l'infondatezza si rivela nella cognizione come "senso comune", e cioè nel sapere come comportarci in un mondo che non è stabile e prefissato, ma continuamente forgiato dalle azioni nelle quali ci impegniamo" (Varela, Thompson e Rosch, 1991, pag 175-176)

LE RETI NEURALI

Le reti neurali nascono come emulazione del tessuto nervoso biologico.
È noto che gli esseri umani non sono molto bravi nell'eseguire una moltiplicazione tra due numeri di dieci cifre e che l'hardware neurale biologico è circa un milione di volte più lento, a livello di componenti elementari, dell'hardware di un qualunque computer; tali compiti rientrano infatti tra quelli in cui la componente squisitamente logico-matematica è predominante; tuttavia la mente umana si dimostra molto efficiente nello svolgimento di compiti, apparentemente più semplici, ma del tutto abituali e pratici, per i quali programmi raffinati eseguiti da macchine potentissime danno risultati mediocri: un calcolatore tradizionale che esegue, secondi i protocolli dell'Intelligenza Artificiale classica, algoritmi sequenziali in tempi brevissimi non può, ad esempio, immagazzinare e richiamare i ricordi con le stesse prestazioni della mente umana. Inoltre, mentre per gli esseri viventi il ragionamento migliora con la conoscenza e l'approfondimento, per i calcolatori prorammati in tal modo accade il contrario: più informazioni hanno a disposizione, maggiore è il numero di confronti necessario ad una decisione e quindi il tempo necessario a trovare la soluzione.
Sembra paradossale che l'uomo sia più veloce di una macchina nel riconoscere un'immagine! Cosa rende il nostro cervello, tanto potente?
Le nostre capacità cerebrali, nascono dalla struttura intrinsecamente parallela del tessuto nervoso.
L'emulazione parte dalla struttura anatomica. Seguendo il modello naturale si costruisce una rete fatta di un gran numero di unitá di elaborazione, capaci di eseguire solo operazioni semplici (microprocessori elementari al posto dei neuroni) e comunicanti tramite un gran numero di connessioni (al posto degli assoni o dei dentriti) lungo le quali le informazioni corrono parallelamente, senza una sequenza predefinita ed influenzandosi a vicenda. Copiando la struttura "fisica" dovrebbero seguire anche quelle proprietà "biologiche" che nessuna macchina é mai riuscita a riprodurre. Stabilita la struttura, si tratta di far eseguire alla rete neurale proprio il compito di cui ci si vuole occupare, cercando di emulare l'innata attività biologica.
É evidente che un bambino di due anni non può sapere cos'è un algoritmo, non ha nessuna nozione di meccanica razionale, ne sa cos'è la gravità o come va elaborata un'immagine, eppure sta in piedi, cammina dignitosamente e sa distinguere a prima vista il viso della propria madre. Come fa? Impara! Soprattutto non impara ad applicare una regola preconfezionata e complicata che copra tutti i casi possibili di perdita di equilibrio o di combinazioni di lineamenti del viso ma impara piuttosto a costruirsi una rappresentazione "sua" della realtà che lo circonda, basandosi sull'esperienza, sugli esempi che man mano gli si presentano, sulla correzione graduale dei propri errori.
Non a caso per noi europei di razza caucasica è particolarmente difficoltoso distinguere e riconoscere i lineamenti del viso di soggetti di razze a noi lontane come ad esempio quella cinese o mongola. Non abbiamo acquisito una tecnica di riconoscimento che copre tutti i casi possibili ma abbiamo raffinato la nostra abilità a riconoscere volti simili a quelli su cui ci siamo esercitati.
Lo stesso fanno le reti neurali artificiali, pur con il limite del numero di unità di elaborazione e di collegamenti, che è sempre molto inferiore a quello dei neuroni e delle sinapsi del cervello, per ovvie questioni pratiche. In base a questi criteri, una rete neurale non punterà a ricavare la formula analitica o logica della funzione che deve apprendere, ma cercherà di realizzare sulla base di una serie di coppie input-output, una "routine" che ha l'obiettivo di simulare quella funzione nel dominio di interesse.
L'uso delle reti neurali si rivela tanto più valido quanto più alto è il livello di entropia del problema da risolvere, nel senso che esse sono adatte alla soluzione di quei problemi complessi ed "aleatori" per i quali non esiste una definizione breve e completa: per la loro soluzione sarebbe necessario memorizzare tutte le soluzioni possibili, ma non si può, perché sono infinite (si provi per esempio a pensare un algoritmo che definisca un albero e riconosca tutte le specie di alberi in tutte le possibili varianti di posizione, distinguendoli dai pali telefonici, dalle antenne TV ecc. basandosi solo su informazioni visive). Un sistema pratico che possa risolvere problemi di questo tipo ha bisogno di poter associare i dati in ingresso con "un'idea" generica già immagazzinata, senza bisogno di cercare una corrispondenza esatta ma solo una somiglianza. I tratti parziali di un oggetto, come nella memoria biologica, devono innescare il ritrovamento di tutta l'informazione relativa a quell'oggetto.
Resta ora da analizzare come funziona in dettaglio una rete neurale. Le unità di elaborazione elementari, denominate per convenzione "nodi", posseggono, analogamente ai neuroni biologici, diversi percorsi di input dai quali ricevono i valori di ingresso. La somma di tali valori viene poi normalizzata attraverso una funzione di trasferimento e trasmessa verso altri nodi per i quali rappresenterà a sua volta un ingresso. Le funzioni di trasferimento possono essere di varia tipo; noi abbiamo adottato l'algoritmo più usato e cioè il sigmoide la cui funzione è f(x)=1/[1-exp(-x)] e la cui forma è quella di una "S" con ingresso qualunque ed uscita tra 0 e 1. X rappresenta l'input netto di ogni nodo derivante dalla somma degli ingressi mentre f(x) rappresenta l'output di tale nodo. Nel nostro studio verranno inoltre utilizzate alcune variazioni all'algoritmo di base introducendo un peso interno ad ogni nodo ed alcune varianti alla funzione del sigmoide.
Una rete neurale è quindi costituita da una serie di nodi i quali sono interconnessi nei modi più vari originando topologie diverse; da quelle "a caso" a quelle con un ordinamento preciso a strati e con una direzione fissa per la propagazione del flusso di informazioni.
Nel nostro caso si è trattato di reti di questo tipo ed esattamente di reti feed-forward (propagazione in avanti) con due strati di nodi comunicanti con l'esterno (strato di input per acquisire i dati in ingresso e strato di output per rivelare la risposta della rete ad un dato input) ed uno strato nascosto (strato di hidden) collegati a gradiente massimo (ogni nodo di uno strato è collegato a ciascun nodo dello strato successivo). Le varie connessioni tra un nodo ed un altro infine sono pesate cioè ad ognuna di esse corrisponde un peso che consiste in un coefficiente per il quale moltiplicare il valore di output del nodo a monte prima di utilizzarlo come input per il nodo a valle (riassumendo se Xi sono i nodi di input e Wij i pesi che collegano ogni nodo Xi ad ogni nodo Xj dello strato successivo di hidden si avrà allora: input netto di Xj=i Wij Xi).
La fase di apprendimento di una rete (training) è la fase in cui le si presentano degli esempi ed essa, in funzione dei valori di input e dell'output desiderato fornito dall'esterno, aggiorna i suoi pesi attraverso un algoritmo particolare detto di Back-Propagation che si basa sull'errore tra l'output calcolato dalla rete e quello atteso. Si parte in genere da una distribuzione causale dei valori dei pesi e ci si ferma quando l'errore nella risposta è inferiore alla soglia predefinita (0.01). Come si può notare questo tipo di rete lavora solamente sui pesi delle connessioni.
Una volta esaurita la fase di apprendimento la rete è pronta per la fase di testing in cui risponde a nuovi ingressi non presenti nei dati di training senza modificare in alcun modo i pesi raggiunti fino a quel momento e verificando poi i valori di output ottenuti attraverso un confronto con quelli attesi. Durante questa fase è possibile appunto testare la rete per valutare quale capacità previsionale essa abbia.
Potrebbe apparire poco chiaro come possa una rete dare risposte corrette e dove finisce poi ciò che essa impara. In una rete neurale la memoria è distribuita, nel senso che l'insieme dei collegamenti contiene l'insieme delle nozioni apprese, diversamente dai calcolatori tradizionali in cui ogni oggetto viene immagazzinato in un elemento di memoria separato: durante la fase di apprendimento cerca le regole di associazione tra gli ingressi e le uscite desiderate che le vengono presentati. Tale regola viene immediatamente memorizzata, codificandola nei valori dei pesi di connessione che rappresentano quindi nel loro insieme e nella loro complessità la rappresentazione che la rete si è costruita del problema e nello stesso tempo la sede della sua memoria. Questa ci consentirà di utilizzare tale rappresentazione anche in tempi successivi ed in casi che la rete non conosce facendo in tal modo previsioni corrette. Le reti neurali rappresentano una delle poche tecnologie collegate all'intelligenza artificiale che abbia un fondamento matematico rigoroso e che si basi sulla manipolazione di numeri e non di simboli. Ciò consente l'uso di matematica anche piuttosto sofisticata (nel nostro caso si tratta di risolvere equazioni di 140o grado circa) per la costruzione di funzioni di somma, di trasferimento e di correzione di errore, per algoritmi di aggiustamento dei pesi ed organizzazione dell'apprendimento. Non si tratta quindi di un metodo euristico per risolvere un certo numero di problemi: la base è una solida teoria matematica che giustifica le prestazioni e dimostra, non solo sperimentalmente, la capacità delle reti neurali di risolvere problemi complessi.

SQUASHING THEORY

Questa teoria nasce come modello ideato dal Prof. M. Buscema del Semeion di Roma per la previsione e la verifica del comportamento dei sistemi complessi (soggetti umani, dinamiche sociali, processi fisici etc..). Essa permette di sviluppare modelli previsionali ad alto grado di attendibilità su qualunque tipo di disagio o patologia comportamentale umana; si basa su una serie di teoremi, principi e proprietà che ne costituiscono i fondamenti teorici ed utilizza dal punto di vista metodologico il sistema comparativo lavorando sempre su almeno tre tipi di campioni: -un primo campione di controllo, costituito da un insieme di soggetti che presentano in modo inequivocabile un certo tipo di patologia o comportamento deviante; -un secondo campione di controllo, costituito da soggetti che non presentano né hanno mai presentato quel tipo di patologia che rappresenta l'obiettivo della ricerca; -un eventuale terzo campione sperimentale, costituito da soggetti sui quali si desidera avere informazioni circa il loro grado di vulnerabilità rispetto al tipo di patologia indagata.
Semplificando molto si potrebbe dire che tale teoria considera ogni soggetto umano un'unità spazio-temporale costituita da un insieme di proprietà: tali proprietà per coesistere subiscono necessariamente una serie di deformazioni che permettono al soggetto di esistere come tale e non semplicemente come la somma delle sue proprietà. Tali deformazioni appaiono sotto forma di relazioni di solidarietà, indifferenza ed esclusione che ogni proprietà mantiene con tutte le altre. L'unità genera quindi un vincolo tra le varie proprietà che la costituiscono limitando ogni proprietà nella sua possibilità di generare comportamenti (Teorema dell'Unità). A tutto ciò si aggiunge la dimensione temporale che diventa fondamento indispensabile nel momento in cui ci si occupa di modelli previsionali. Ogni unità con le proprie regole di funzionamento storiche basate sulla storicizzazione ed attualizzazione delle regole di coesione tra le varie proprietà, genera un insieme di comportamenti; tali comportamenti rappresentano una delle possibili realizzazioni di quella unità con le sue proprietà (Teorema dell'Immanenza).
Diventa interessante a questo punto considerare ciò che avviene durante il processo di apprendimento. Ogni volta che un soggetto tenta di ricavare regole fisse e universalmente valide da singoli oggetti o avvenimenti egli svolge un processo di astrazione e di sintesi: tale processo consiste nell'annullare il tempo intercorso tra le singole esperienze. Le regole ricavate infatti originano dal continuo riaggiustamento che il soggetto opera di fronte ad un nuovo oggetto; quando tale lavoro è completato il soggetto avrà reso nullo il tempo speso per apprendere tali regole attraverso le singole percezioni. Ma se le regole annullano il tempo speso per trovarle, invertendo la direzione del processo appare evidente che ogni soggetto può rigenerare e riprodurre internamente quegli oggetti senza più dover variare le sue regole solamente a costo di reintrodurre la dimensione temporale e di discriminare tra esperienze temporalmente diverse.
Questa digressione appare doppiamente importante: innanzitutto anche per le reti neurali, analogamente ai soggetti umani, l'apprendimento consiste nel cercare di stabilizzare nel tempo delle regole (pesi) sintetizzate a partire dalle singole esperienze azzerando il tempo necessario alla loro definizione; inoltre, tornando alla questione della prevedibilità di un comportamento, si può concludere affermando che riconoscendo un paradigma di proprietà appartenenti ad un'unità generatrice di un comportamento è possibile prevedere il ripetersi di tale comportamento (Teorema del Paradigma).
In altri termini, come sostiene Buscema: "Ogni sistema complesso è il risultato di un incapsulamento di una architettura a 4 dimensioni spaziali in un mondo a 3 dimensioni. Da questo imprigionamento di un oggetto in un mondo troppo semplice per comprenderlo nasce il dinamismo, l'instabilità e l'andamento apparentemente caotico di molti sistemi che percepiamo come complessi. L'esempio principale di ciò sono i sistemi biologici: in ognuno di essi il tempo è l'ombra della loro complessità spaziale nel nostro mondo. Di conseguenza, ogni sistema complesso può essere compreso calcolando la deformazione che le sue proprietà subiscono nel loro essere costrette a condividere uno spazio-tempo per loro troppo limitato. Le Reti Neurali Artificiali forniscono alla Squashing Theory una buona base di calcolo e la Squashing Theory fornisce loro una teoria del buon uso".
Una delle prime applicazioni di questo modello di ricerca sperimentale sui comportamenti umani, è stato lo studio del fenomeno tossicodipendenza; su tale banco di prova esso ha prodotto risultati a dir poco inaspettati se si considera il livello di attendibilità raggiunto in passato dalle ricerche condotte nello stesso ambito e con le stesse finalità da esperti del settore o da altri ricercatori. Nella fattispecie tale ricerca si è svolta individuando inizialmente tre campioni di soggetti: il primo composto da soggetti tossicodipendenti in accoglienza presso i Servizi Socio Sanitari, con alle spalle almeno tre anni di eroina; il secondo costituito da soggetti senza alcun precedente contatto con i Servizi e senza alcun problema connesso alle droga; il terzo che raggruppa soggetti tossicodipendenti da eroina per almeno tre anni usciti dai Servizi avendo ricevuto un trattamento cinque anni prima ed il cui futuro rispetto alla tossicodipendenza risulta incerto. Ad ognuno dei tre campioni è stato poi somministrato un questionario composto da 112 domande strutturate, di cui nessuna riguardante il problema della tossicodipendenza ma che, in accordo alla teoria dello Squashing, coprono a 360 gradi tutte le proprietà del soggetto in questione; esse infatti suddividono l'unità bio-psico-sociale dell'individuo in diverse aree da indagare e precisamente: dati scolastici, occupazione, caratteristiche e microvulnerabilità dei familiari, abitazione, abitudini sessuali e del partner, religione, economia, fumo e alcool, problemi con la giustizia, amicizie, tempo libero, caratteristiche psico-fisiche, percezione dei familiari e del partner.
Tale ricerca ha coinvolto prima singolarmente e poi globalmente quattro centri in tutta Italia; i dati raccolti sono stati elaborati suddividendo casualmente in due gruppi i soggetti del primo e del secondo campione in modo tale da avere due raggruppamenti di soggetti, uno di training ed uno di testing, contenenti ciascuno una parte di soggetti tossici ed una parte di soggetti non tossici.
Una rete neurale feed-forward ha poi "visto" i soggetti del gruppo di training su cui si è appunto esercitata e da cui ha "imparato" a distinguere i soggetti tossici da quelli non tossici. Tale capacità è stata poi testata sul secondo campione, quello di testing, costituito da soggetti mai "visti" dalla rete; in base alla capacità della rete di discriminare i due campioni all'interno di tale gruppo di testing infatti si è potuto valutare il grado di capacità previsionale di quella rete nel riconoscere un determinato paradigma di proprietà di un soggetto e quindi la sua capacità di fare previsioni sfumate sul comportamento tossicofilico di soggetti non conosciuti. Tale elaborazione è stata ripetuta più volte fino ad individuare dieci reti con un alta capacità previsionale che potessero essere impiegate successivamente, come dieci "esperti" del settore, anche sul terzo campione sperimentale; in tal modo si sono potute fare previsioni ponderate sull'incidenza di eventuali ricadute nei soggetti già in astinenza da anni.
Ciò che giustifica il proseguimento delle ricerche in tal senso è il passaggio della prevedibilità del fenomeno tossicodipendenza da valori intorno al 65-70% raggiunti in passato, a valori stabili intorno al 95% conseguiti con il sistema a reti neurali. Un aspetto interessante di tale applicazione è stata la conferma della necessità di considerare nello studio di un soggetto tutte le caratteristiche o le proprietà che lo riguardano (Principio di Totalità). In fase preliminare, infatti, alla rete neurale sono state fatte "vedere" solo alcune domande dei questionari selezionando aree specifiche di interesse (relazioni familiari, percezione, tempo libero ed amicizie, etc.); i vari tentativi in cui la rete aveva a disposizioni dati parziali hanno evidenziato che essa non apprendeva completamente e che i risultati erano sovrapponibili ai valori già raggiunti con altre metodologie. Solo prendendo in considerazione tutte le caratteristiche del soggetto, le più diverse possibile (Principio di Varietà) e del formato più ridotto possibile per evitarne la manipolazione ed aumentarne il grado di libertà (Principio di Atomizzazione), è stato possibile, come dimostrato da tale ricerca, raggiungere capacità previsionali elevate dell'ordine di quelle citate.

Per la stretta attinenza psichiatrica vale la pena di ricordare brevemente le due seguenti ricerche, da noi svolte:

Vulnerabilità alla schizofrenia
. Costruzione di una scheda di rilevamento basata sui seguenti domini:
famiglia e percezione di essa, ed inoltre istruzione, amicizie, religione, occupazione, economia, tempo libero, partner, giustizia, alcool-fumo
. Individuazione di due campioni di soggetti:
madri normali di soggetti schizofrenici
da madri normali di soggetti normali.
. Somministrazione della scheda ai due campioni.
Applicazione di un test previsionale per verificare la capacità della scheda di prevedere in modo corretto quali dei soggetti dei due campioni avessero un figlio schizofrenico e quali no.
. Elaborazioni successive per valutare il grado di incidenza dei singoli fattori nel determinismo della malattia.

Prevenzione suicidio
. Costruzione di una scheda di rilevamento.
. Individuazione di due campioni di soggetti:
soggetti di una popolazione psichiatrica nota, con un pregresso tentato suicidio negli ultimi due anni, considerato serio e meritevole di un trattamento specifico (ricovero o terapia) dallo specialista referente
. soggetti di una popolazione psichiatrica nota senza precedenti tentati suicidi negli ultimi due anni.
. Somministrazione della scheda ai due campioni.
. Applicazione di un test previsionale per verificare la capacità della scheda di prevedere in modo corretto quali dei soggetti dei due campioni abbia in anamnesi prossima (due anni) un precedente TS e quali no.
. Applicazione del modello previsionale su popolazioni a rischio suicidario per individuare ed intervenire su quei soggetti destinati ad un acting autolesivo.

APPLICAZIONI GIÀ ATTIVATE

- Previsione del passaggio ad HIV conclamato
- Eliminazione dinamica dei disturbi nelle telecomunicazioni (GSM...)
- Valutazione del rischio nelle ipoteche
- Individuazione bombe al plastico
- Controllo di qualità nella produzione di lampadine
- Riconoscimento di vocaboli
- Previsione di problemi ai motori delle auto
- Comprensione e classificazione dei risultati nella ricerca scientifica
- Strategie di marketing
- Classificazione di segnali sonar
- Previsione della vulnerabilità all'eroina
- Identificazione ed inseguimento di oggetti mobili
- Compressione di immagini e di dati
- Riconoscimento di caratteri scritti a mano
- Validazione di firme
- Controllo di qualità nei processi di automazione industriale
- Reti neurali per la ricostruzione e la classificazione di immagini tattili
- Predizione delle proprietà dei filati nella tecnologia dei processi chimici.
- Riconoscimento di giacimenti di gas sfruttabili
- Modelli delle dinamiche di mercato nei settori dei prodotti alimentari, di consumo e finanziari.
- Predizione delle vendite dei giornali
- Pianificazione della produzione
- Qualificazione dei dispositivi anti shock nelle automobili
- Diagnosi sui punti di saldatura
- Progettazione automatica di apparecchiature per la produzione di contenitori
- Rilevamento di frode nelle transazione tramite carta di credito
- Gestione dell'approvvigionamento di acqua potabile
- Riconoscimento testi nelle domande di assunzione, negli ordini di vendita, nei questionari per la sicurezza sociale
- Predizione delle vendite nei supermercati
- Sistema do controllo automatico della qualità nella produzione di tegole
- Controllo della qualità ed incremento dell'efficienza nei progetti medici
- Ottimizzazione degli impianti per la polimerizzazione
- Classificazione dei difetti nei metanodotti
- Nuova metodica per la predizione assistita al computer delle metastasi linfonodali nel carcinoma gastrico
- Selezione e classificazione materiali specifici
- Ottimizzazione della regolazione di essiccatoi
- Applicazione delle reti neurali per la valutazione dello stato di reattività dei fermenti produttori di penicillina
- Sostituzione degli analizzatori nelle colonne di distillazione
- Puntamento ottico nella produzione industriale
- Previsioni del tempo a breve termine
- Monitoraggio di dighe
- Controllo di accesso utilizzando il riconoscimento automatico del viso
- Controllo di fornaci
- Analisi dei dati di volo di elicotteri

APPLICAZIONI IN FASE DI ATTIVAZIONE
.
. Generali
- Valutazione probabilistica della presenza di petrolio in formazioni geologiche
- Identificazione dei canditati per una qualifica specifica all'interno di una ditta
- Minimizzazione di database in imprese
- Miglioramento del rapporto posti/prezzo per i biglietti aerei
- Valutazione dei premi assicurativi
- Selezione di team specializzati
- Modelli di simulazione di sviluppo urbano
- Previsioni sulla mobilità lavorativa
- Previsioni del tempo
- Previsioni sul grado di inquinamento
- Analisi dei movimenti migratori
. Biologia
- Funzionamento di un cervello danneggiato
- Modelli di funzionamento della retina e della coclea
- Studi sul DNA (identificazione dei siti che codificano per l'insulina ...)
- Simulazione di nuove molecole (affinità recettoriali..)
. Finanza
- Analisi del rischio nei crediti
- Identificazione delle perdite
- Lettura e validazione di schede compilate a mano
- Analisi dei tassi di investimento e del portfolio
- Previsione e simulazione degli scenari del cambio monetario
- Previsioni su titoli ed obbligazioni
- Simulazione di scenari economici
- Analisi della evasione e della elusione fiscale
. Manifattura
- Automazione in robotica e sistemi di controllo multiparametrici
- Controllo dei processi di produzione
- Supervisione nel controllo di qualità
- Selezione di parti per linee di montaggio
. Campo sanitario e sociale
- Analisi del linguaggio nel trattamento della sordità grave
- Diagnosi e prescrizione di trattamenti partendo da sintomi
- Monitorizzazione di interventi chirurgici
- Previsione di effetti collaterali di alcuni farmaci in determinati soggetti
- Interpretazione radiografie
- Comprensione delle cause dei fenomeni epilettici
- Previsione della vulnerabilità alla schizofrenia
- Previsione della mancata frequenza scolastica
. Sicurezza e campo militare
- Analisi dei dati durante conflitti, battaglie e/o rivolte
- Classificazione dei segnali radar
- Creazione di arme intelligenti
- Riconoscimento di azioni
- Miglioramento delle risorse carenti
- Identificazione ed ancoraggio di oggetti mobili
- Identificazione di denaro riciclato nel riciclo di società
- Simulazione di operazioni ad alto rischio
- Analisi di attentati terroristici
- Interrogazione intelligente di grossi database
- Analisi delle testimonianze
- Strategie di investigazione
. Campo giuridico
- Valutazione dell'evidenza
- Valutazione delle sospensioni delle concessioni edilizie
- Miglioramento delle strategie di instruzione dei processi

BIBLIOGRAFIA
Anderson, J.A., Rosenfeld, E. (1988) Neuro computing. Foundation of Research. The MIT Press, Cambridge, MA.
Brooks, A. Rodney (1987), Intelligence without representation, MIT Artificial Intelligence Report.
Buscema, M. (1985) A prevention Procedure Theory. T.P. n. 4 Edizioni Semeion, Roma.
Buscema, M. (1986) Prevenzione e Dissuasione. EGA, Torino.
Buscema, M. (1990) The Brain Within the Brain. T.P. n. 9 Edizioni Semeion, Roma.
Buscema, M. (1992) Squash. Shell per Reti Neurali Artificiali Feed Forward, Semeion Software no5, Roma.
Buscema, M. (1994) Squashing Theory: modello a reti neurali per la prevenzione dei sistemi complessi. Armando Editore, Roma.
Buscema, M., Cassardo, L. (1990) Permanent Observatory on Incubation Disorder. T.P. n. 10 Edizioni Semeion, Roma.
Buscema, M., Massini, G. (1993) Il modello MQ: Reti Neurali e percezione interpersonale., Collana Semeion, Armando Editore, Roma 1993.
Grossberg, S. (1988) Neural Networks and Natural Intelligence., The MIT Press, Cambridge, MA.
Hinton, G., Sejnowski, T.J. (1987) Neural Network Architectures for Artificial Intelligence. Tutorial MP2, AAAI '87, Seattle, WA.
Just, M. A., & Carpenter, P. A. (1978), Inference processes during reading: Reflections from eye fixations. In J. W. Senders, D. F. Fisher & R.A. Monty (a cura di), Eye movements and the higher psychological functions, Hillsdale, N. J.: Erlbaum.
Just, M.A. & Carpenter, P.A. (1980), A Theory of Reading: From Eye Fixation to Comprehension, in Psychological Review, 87, 329-354.
Leandro De Persiis, Apprendimento di significato in reti competitive, tesi di laurea presentata il 20/3/1995 all'università di Roma "La Sapienza",corso di laurea in Psicologia.
McClelland J.D. & Rumelhart, D.E. (1986) Parallel Distributed Processing. Exlorations in the microstructure of cognition, 2 voll., MIT Press, Cambridge, Mass.
McCord, N.M., Illingworth, W.T. (1991) A practical guide to Neural Nets. Addison Wesley, New York.
Minsky, M. (1986), trad. it. La società della mente, Adelphi, Milano, 1989.
Mulsant, B.H. (1990) A Neural Network as an approach to Clinical Diagnosis. in: MD Computing. Vol. 7, no1.
Parisi Domenico (1989), Intervista sulle reti neurali, il Mulino, Bologna.
Pessa, E. (1993) Reti Neurali e processi cognitivi. Di Renzo, Roma.
Rumelhart D. E., Hinton G. E., & Williams R. J. (1986). Learning internal representations by error propagation. In D. E. Rumelhart & J. L. McClelland (eds.), Parallel Distributed Processing (Vol. 1, Appendix 2).
Searle, J.R. (1980), Minds, brains and programs, in Behavioral and Brain Sciences, 3, 417-458.
Varela, F.G., Thompson, E. & Rosch, E. (1991), trad. it. La via della conoscenza, Feltrinelli, Milano, 1992.



PM --> HOME PAGE ITALIANA --> ARGOMENTI ED AREE --> NOVITÁ --> PSICHIATRIA E SISTEMI COMPLESSI