riassunti-il-cervello-fonologico [PDF]

Riassunti "Il cervello fonologico" Psicologia Del Linguaggio E Della Comunicazione Università del Salento (UNISALENTO) 8

39 1 462KB

Report DMCA / Copyright

DOWNLOAD PDF FILE

riassunti-il-cervello-fonologico [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Riassunti "Il cervello fonologico" Psicologia Del Linguaggio E Della Comunicazione Università del Salento (UNISALENTO) 8 pag.

Document shared on www.docsity.com Downloaded by: Catneg ([email protected])

CAPITOLO 1 – FOTOGRAMMI DI UN LUNGO VIAGGIO Tutto è iniziato quando 7 milioni di anni fa è avvenuta una mutazione genetica che separò gli scimpanzé dai nostri antenati. Oltre a questo, ha contribuito anche l’andatura bipede, la quale ha permesso di svolgere attività nuove mai intraprese prima. Con l’Homo Sapiens, quindi, è comparso per la prima volta il linguaggio, a differenza degli scimpanzé che comunicano attraverso gesti e semplici vocalizzazioni. A partire dal primo atto di parola, ovvero una stringa di suoni a cui è stato associato un concetto mentale, è stato possibile iniziare a prendere coscienza di sé stessi e del mondo, cambiando la storia in modo impensabile. Un atto di parola dura 250-450 ms. Se diciamo “albero”, si attivano in modo sincronizzato dei neuroni che, comunicando fra loro, consentono di analizzare il segnale acustico della parola ed estrarre il concetto ad essa correlato dalla memoria a lungo termine. Ogni lingua associa ad uno stesso concetto delle combinazioni di suoni differenti. Senza il segno linguistico non sarebbe quindi possibile condividere con gli altri parlanti le proprie idee e stati mentali. La particolarità del linguaggio umano è la cosiddetta doppia articolazione: i singoli suoni che emettiamo non significano nulla, ma acquisiscono sempre più significato se combinati fra loro creando sillabe e morfemi, quindi parole, e successivamente gruppi di parole, ovvero i sintagmi, che raggruppati formano delle frasi. L’uomo è sato inoltre in grado di pensare senza bisogno del linguaggio, associando pochi concetti in modo fulmineo. Senza il linguaggio, però, non sarebbe possibile neanche pensare. L’essere umano è stato quindi l’unico a sviluppare un pensiero simbolico, il quale permette di rappresentare persone, oggetti eventi e immagini. Gli animali non sono in grado di produrre pensieri simbolici ma semplici stati di coscienza di tipo primario. Grazie ad un certo tipo di memoria, l’animale sarà portato ad agire in un determinato modo, ad esempio di fronte a pericoli. La concettualizzazione animale non è consapevole bensì istintiva. Anche gli animali sono in grado di distinguere vocali e consonanti delle lingue ma solo dopo molto tempo e sotto stimoli specifici controllati in laboratorio. I bambini, invece, fanno tutto questo da soli e in pochissimo tempo. Già durante la gravidanza il feto riesce a distinguere i suoni. Durante la crescita il bambino affina sempre di più questa abilità facendo dei calcoli probabilistici molto complessi, individuando le proprietà dei suoni, in quali contesti essi compaiono e in quale posizione, individuando quindi le sequenze di suoni accettabili nella lingua a cui è esposto. Durante il primo anno di vita il bambino è aperto a tutte le possibili lingue a cui può essere esposto, successivamente, dai 12 mesi di vita in poi, il suo cervello si orienta vero la lingua madre e la sua capacità di acquisizione di una seconda lingua, col tempo, diminuisce sempre di più e gradualmente. Intorno ai 6 mesi di vita i neonati iniziano già ad articolare le prime vocali e le prime consonanti, per poi pronunciare sequenze di consonanti e vocali. La sincronizzazione fra il processo percettivo e quello articolatorio avviene per tentativi ed errori attraverso il meccanismo detto feedforward, ovvero la verifica che il sistema uditivo fa di continuo quando il bambino parla: quando farà degli errori, il bambino riproverà e riproverà fino ad ottenere il risultato di matching.

Document shared on www.docsity.com Downloaded by: Catneg ([email protected])

CAPITOLO 2 – DAL NEURONE AL LINGUAGGIO Il cervello non è altro che un agglomerato di cellule dette neuroni, i neuroni sono composti da ricettori, ovvero corpo e dendriti e trasmettitori, ovvero l’assone. L’assone è avvolto da una guaina mielinica che permette una trasmissione veloce delle informazioni grazie alla sua funzione da isolante elettrico. I neuroni comunicano fra loro tramite le sinapsi, le quali possono essere elettriche o chimiche. Quelle elettriche permettono un passaggio di informazioni più rapido, quelle chimiche invece funzionano grazie a sostanze chimiche dette neurotrasmettitori che permettono la comunicazione fra l’assone e i dendriti del neurone successivo. Il cervello, insieme al midollo spinale, forma il sistema nervoso centrale (SNC). Nel Snc abbiamo anche il tronco encefalico, formato da bulbo, ponte e mesencefalo e il cervelletto, centro di comunicazione motoria ma importante anche per la percezione, connesso ad aree uditive tramite il talamo. Patologie del cervelletto possono compromettere l’articolazione dei suoni, provocando un rallentamento nella produzione degli stessi e compromettendo anche la coordinazione fra laringe e muscoli oro-facciali. Il sistema nervoso periferico (SNP) è composto da nervi che connettono cervello e midollo spinale con tutte le altre parti del corpo. Poco sopra il cervelletto abbiamo talamo, ipotalamo e ipofisi. Il talamo ricopre un ruolo importante per quanto riguarda i processi sensoriali (eccetto l’olfatto) ed è connesso alla parte della corteccia motoria che controlla la laringe. Talamo, ipotalamo, amigdala e giro del cingolo costituiscono il cosiddetto sistema limbico, un’area che controlla il comportamento istintivo e le emozioni, oltre che ai processi di memorizzazione. I gangli della base sono composti da nucleo caudato, putamen e globo pallido. La funzione dei gangli della base è controllare i movimenti interagendo con la corteccia motoria comunicando con i piani superiori. I GDB giocano un ruolo cruciale nella produzione del linguaggio dove è richiesto un movimento preciso dei muscoli di faccia, mandibola, diaframma e lingua. Chi soffre del morbo di Parkinson (dato che attacca i GDB) mostra infatti difficoltà nel controllo dell’articolazione dei suoni. I GDB sono inoltre coinvolti nell’apprendimento associativo, ovvero sull’associazione e memorizzazione di due eventi che si condizionano a vicenda. Danni ai GDB provocano la compromissione del riconoscimento delle intonazioni. La corteccia cerebrale è avvolta su sé stessa e possiede delle pieghe chiamate solchi che, se particolarmente profondi, prendono il nome di scissure. La scissura centrale divide il cervello in due lobi, ciascuno dei due governa la parte opposta del corpo. Gli emisferi comunicano fra loro attraverso il corpo calloso. Ciascun emisfero è suddiviso in due lobi. Abbiamo il lobo frontale in cui troviamo l’area 44 e 45, individuate per la prima volta da Brodmann, che si occupano della parte motoria del linguaggio (area di Broca) e sono quindi interessate nella produzione del parlato. L’area 4 è l’area motoria per eccellenza mentre la 6 e la 8 sono premotorie. È da queste zone che vengono controllati i movimenti di lingua, laringe e di tutti i muscoli coinvolti nella produzione del parlato.

Document shared on www.docsity.com Downloaded by: Catneg ([email protected])

Nel lobo parietale troviamo la corteccia somatosensoriale coinvolta nella percezione degli stimoli sensoriali come tatto, senso della posizione, pressione, dolore e temperatura. Inoltre troviamo anche il giro soprasegmentale e il giro angolare che pare abbiano un ruolo fondamentale nell’analisi del significato, nell’analisi sillabica di parole e nella formazione delle parole. Nel lobo temporale troviamo le aree 41 e 42, ovvero le aree uditive primarie e l’area uditiva secondaria (22), interessate nel processo di percezione. Nella parte posteriore dell’area 22 troviamo l’area di Wernicke, interessata nell’immagazzinamento delle informazioni in memoria. Nella parte posteriore all’area di Wernicke vi è un’aoreola chiamata piano temporale. Lesioni in quest’area provocano l’afasia di conduzione, ovvero la difficoltà nel ripetere ciò che si è sentito. Nel lobo occipitale, invece, avviene l’elaborazione degli stimoli visivi che arrivano dalla retina e dal nervo ottico. CAPITOLO 3 – DAL SUONO AL CERVELLO E RITORNO Quando parliamo prendiamo fiato velocemente e poi rilasciamo uniformemente in base alle sequenze di parole e frasi che vogliamo realizzare. L’aria lascia i polmoni attraverso la trachea per poi passare nella laringe, in cui ci sono le corde o pliche vocali. Quando parliamo si genera una forma d’onda che ha come caratteristiche frequenza (in Hz) e ampiezza (in dB). Tutti gli ostacoli che il suono incontrerà nel nostro apparato fonatorio modificano la forma d’onda rendendola complessa. Le onde complesse possono essere periodiche o aperiodiche. Le vocali, semivocali e approssimanti sono un esempio di segnale periodico in quanto corrisponde ad un elemento sonoro e continuo. I suoni sordi come [s], ad esempio, sono tipicamente aperiodici. Le vocali sono suoni sonori prodotti grazie alla vibrazione delle pliche vocali e il coinvolgimento di labbra e lingua. È possibile identificare le varie vocali tracciando un trapezio vocalico e immaginando che la parte destra del trapezio corrisponda alla parte posteriore della bocca mentre il lato destro corrisponde al lato anteriore. Immaginando di posizionare un pallino sul centro della lingua, la posizione che questo assumerà durante la produzione della vocale determinerà la sua posizione all’interno del trapezio. Esse possono quindi essere categorizzate in base al loro essere anteriori, centrali e posteriori oppure alte, medie o basse. In italiano abbiamo un massimo di 7 vocali, sebbene in alcune varietà ne vengano usate solo 5. Nel toscano, infatti, esiste una differenza fra la E aperta e la E chiusa e fra la O aperta e la O chiusa. Questa differenza dei due foni determina una differenza nel significato di due parole apparentemente uguali come [‘peska] (verbo pescare) e [‘pƐska] (frutto). Le consonanti vengono prodotte grazie all’interruzione del flusso d’aria all’interno dell’apparato fonatorio, partendo dalla laringe fino ad arrivare alle labbra. Abbiamo le consonanti occlusive, in cui vi è una fase di impostazione e di tenuta e una fase di rilascio “a scoppio” del flusso d’aria, come ad esempio la T che è una occlusiva sorda alveodentale,

Document shared on www.docsity.com Downloaded by: Catneg ([email protected])

prodotta con occlusione creata dalla lingua sui denti e gli alveoli. Abbiamo le fricative come S, prodotte tramite un restringimento dello spazio in cui deve passare l’aria, provocando un fruscio. Le affricate, caratterizzate da una fase occlusiva e una fricativa, come C e G, le laterali come L, le laterali fricative come GL e le vibranti come R. Le consonanti vengono distinte in base al luogo di articolazione (dove si effettua l’occlusione) e al modo di articolazione, ovvero se sono fricative, occlusive, ecc.. Il segnale attraversa l’orecchio esterno costituito dal padiglione auricolare esterno e dal canale uditivo esterno, il quale riceve le molecole d’aria “agitate” in ingresso; successivamente passa nell’orecchio medio costituito da tre ossicini chiamati martello, incudine e staffa che trasmettono il segnale all’orecchio interno costituito dalla coclea che trasforma il segnale meccanico in segnale elettrico da inviare poi al cervello. All’interno della coclea vi è un liquido che si dirama in 3 canali, uno dei quali è la membrana basilare che a sua volta contiene l’organo del corti. I 3 ossicini quindi amplificano il suono e lo traducono in energia meccanica. La loro vibrazione crea delle onde nel liquido cocleare, le quali si propagano fino all’organo del corti dove ci sono le cellule ciliate esterne e interne. Le cellule ciliate, vibrando, liberano il glutammato, un neurotrasmettitore, attivando le fibre afferenti che portano il segnale al SNC. CAPITOLO 4 – DI FONI, FONEMI E INTERFACCE NEURALI La decodifica delle proprietà spettro-acustiche genera rappresentazioni mentali basate su delle categorie di suoni. Dopo che l’input è stato tradotto in categorie discrete avviene la rappresentazione mentale del concetto espresso da una parola, ad esempio. I suoni che le lingue usano per distinguere parole diverse si chiamano fonemi e si differenziano da tutti gli altri suoni, detti foni. I fonemi, da soli, sono privi di significato; ne acquistano uno nel momento in cui si combinano con unità maggiori, come i morfemi (che sono provvisti di significato). Esistono 3 livelli di rappresentazione dei suoni: acustico, fonetico e fonologico. All’estremo del livello acustico, il segnale viene riprodotto fedelmente nella coclea; all’estremo opposto, invece, abbiamo le rappresentazioni fonologiche che sono collegate all’acquisizione della lingua madre. Durante il processo di acquisizione, differenze acustiche che hanno rilevanza nella lingua madre generano delle rappresentazioni mentali forti. Durante il primo anno di vita avviene un graduale passaggio da rappresentazioni fonetiche a fonologiche. Il risultato è una rappresentazione più forte dei foni nativi e una meno forte dei foni non nativi. I suoni nativi sono detti prototipici. Quando si parla di foni, si parla di unità linguistiche che, all’interno di una stessa parola, possono essere intercambiati fra loro senza produrre una differenza di significato. Ad esempio, i due foni [k] e [gorgia toscana] possono essere interscambiabili per un parlante toscano, in una parola come coca cola, in cui abbiamo una C seguita da vocale o in posizione intervocalica. In questo caso siamo davanti alla presenza di un allofono, ovvero di un suono

Document shared on www.docsity.com Downloaded by: Catneg ([email protected])

diverso per rappresentare lo stesso fonema, ovvero /c/. Due fonemi diversi, invece, all’interno di una stessa parola producono una differenza di significato, andando a creare le cosiddette coppie minime. Alcuni esempi di coppie minime sono /cane/, /pane/, /lane/, /tane/ e cosi via… Ognuna di queste parole ha un significato diverso determinato dall’unico elemento che le differenzia, ovvero il fonema iniziale. I fonemi però non sono la parte più piccola del linguaggio, i quanto possono essere scomposti in base ai loro tratti distintivi, ovvero le proprietà articolatorie che li definiscono. I fonemi /p/ e /b/ condividono diversi tratti, ovvero sono entrambi suoni creati tramite una occlusione a livello bilabiale, tuttavia uno è sordo e uno è sonoro. I tratti distintivi non si differenziano fra lingua e lingua ma sono universali in quanto tutti gli homo sapiens sono in grado di produrre i suoni del linguaggio umano. Che differenza c’è fra tratti distintivi e gesti articolatori? Secondo alcuni linguisti non tutte le unità linguistiche elaborate dal cervello corrispondono a tratti distintivi. Secondo il modello Analysis by Synthesis, l’analisi iniziale del segnale sarebbe coadiuvata dalle informazioni fonetico-fonologiche contenute nella memoria a lungo termine. Viene fatta, quindi, una sorta di comparazione fra le informazioni contenute nel segnale e quelle già presenti in memoria inerenti al proprio sistema linguistico. Questa analisi avviene sul segnale, quindi dal basso verso l’alto (bottom-up) e dall’alto verso il basso (top-down) ottenuta quando le informazioni in memoria vengono comparate con il segnale in uscita durante la produzione. Il cervello di un bambino fa questa operazione in modo naturalissimo. La rappresentazione categoriale viene ottenuta andando a ricercare in memoria quali sono le informazioni articolatorie necessarie a produrre un determinato suono. Secondo la Motor Theory of Speech Perception, invece, giocano un ruolo cruciale le informazioni relative ai comandi motori. L’oggetto della comparazione non è il segnale acustico. I bambini hanno infatti un’abilità innata nel memorizzare i gesti fonetici del tratto vocale durante la produzione di suoni, come ad esempio il movimento della lingua o delle labbra. Pertanto, durante la decodifica del segnale, è necessario un collegamento fra percezione e produzione. In questo caso l’oggetto della comparazione non sono i tratti distintivi ma i gesti articolatori. Anche questa teoria presuppone un’analisi bottom-up e topdown. CAPITOLO 5 – DAI SEGNALI ELETTROMAGNETICI AI TRATTI DISTINTIVI Grazie alla elettroencefalografia e alla magnetoencefalografia è possibile misurare l’attività elettrica generata dalle sinapsi, attraverso cui i neuroni si scambiano informazioni. L’ EEG consiste nel mettere sullo scalpo del soggetto una serie di elettrodi in punti specifici, utilizzando un sistema di riferimento internazionale; tramite essi è possibile misurare i cosiddetti potenziali evento-correlati (ERP). Gli ERP rappresentano delle modificazioni del segnale elettrico in seguito ad uno stimolo, che sia esso visivo o uditivo. L’EEG non è un esame invasivo e non comporta nessun rischio. Le onde EEG vengono ottenute facendo la media di tutti i segnali temporalmente correlati agli stimoli. I segnali così ottenuti sono

Document shared on www.docsity.com Downloaded by: Catneg ([email protected])

caratterizzati da forme d’onda, generati a partire da 50 a 1000 ms dallo stimolo, e possiedono una polarità che può essere negativa (picco in alto) e positiva (picco in basso). Le polarità vengono indicate con una lettera, quindi P o N, seguita da un numero che corrisponde alla latenza e cioè al tempo che passa dalla somministrazione del segnale alla risposta elettrica delle sinapsi. Avremo quindi varie componenti, la N100, P300, N400, P600, e così via… La magnetoencefalografia, invece, consente di misurare il campo magnetico degli ERP tramite dei sensori posizionati su un casco. Inoltre, risulta più efficiente in quanto l’attività elettrica (al contrario di quella magnetica) misurata con la EEG risulta alterata dopo il passaggio attraverso le ossa craniche. Una componente che inizia ad essere di nostro interesse è la N100, la quale ci dice che è stata registrata un’informazione a livello cerebrale a partire dai 70 ai 150 ms dalla somministrazione dello stimolo. L’indagine di questa componente ci permette di capire come i fonemi vengono decodificati nelle aree uditive. Altra componente di nostro interesse è la Mismatch Negativity (MMN), ottenuta utilizzando un paradigma chiamato oddball: vengono somministrati una serie di stimoli uguali detti standard e alcuni stimoli inusuali detti devianti. La MMN si verifica a circa 100-250 ms dallo stimolo, in concomitanza con la N100 ed è anch’essa con polarità negativa, ottenuta sottraendo l’onda generata dallo stimolo standard a quella generata dallo stimolo deviante. Durante la somministrazione degli stimoli, il cervello fa una predizione riguardo gli stimoli successivi, e quando questa predizione verrà smentita dallo stimolo deviante, il risultato sarà una MMN. L’ampiezza della MMN è sensibile al ruolo contrastivo che hanno i suoni rispetto al sistema fonologico del parlante. Nella memoria a lungo termine, quindi, sono presenti tracce solide dei fonemi nativi che possono essere misurate attraverso la MMN. È stato fatto un esperimento per quanto riguarda la discriminazione delle vocali /e/ e /Ɛ/ nel salentino. In dialetto salentino, il fonema / Ɛ/ quando è seguito da una vocale atona come la /i/, perciò /’pƐdƐ/, ovvero “piede” al singolare, al plurale diventa /’pedi/ al plurale. Si è notato che la discriminazione del fonema è più veloce rispetto alla discriminazione dell’allofono, in quanto quest’ultimo richiede uno sforzo neuronale in più. Per quanto riguarda l’acquisizione della L2, invece, è stato fatto uno studio riguardo l’apprendimento della seconda lingua in un contesto formale e in un contesto di immersione. Apprendere una L2 in un contesto di immersione mostra una migliore capacità di discriminazione, quasi pari a quella dei parlanti nativi. L’apprendimento in un contesto formale, invece, limita la memorizzazione a lungo termine dei foni non nativi: studiando due gruppi di studenti dell’università del salento che hanno scelto l’inglese come prima lingua (rispettivamente del primo anno e del quinto anno) è emerso che gli studenti non mostrano nessuna differenza nella generazione della MMN durante i compiti di discriminazione dei suoni dell’inglese.

Document shared on www.docsity.com Downloaded by: Catneg ([email protected])

CAPITOLO 6 – PERCEPIRE È PRODURRE E PRODURRE È PERCEPIRE Dietro gli ERP ci sono dei movimenti oscillatori che indicano un’attività neuronale di fondo che non deve essere ignorata in quanto è intrinseca ai processi cognitivi temporalmente collegati agli stimoli. Ciò significa che prima dello stimolo la frequenza dei cicli oscillatori è normale, subito dopo lo stimolo, invece, essa viene riorganizzata intorno a valori specifici. Questa riorganizzazione genera delle oscillazioni evento-correlate. I ritmi oscillatori si possono registrare direttamente dalla corteccia attraverso l’elettrocorticografia: si tratta di una tecnica molto invasiva che può essere utilizzata in casi di patologie come l’epilessia e consiste in un intervento chirurgico in cui vengono posizionati degli elettrodi direttamente sulla corteccia. Il paziente rimane sveglio e collaborativo e questo permette dunque di fare degli esperimenti anche in ambito linguistico. La durata delle unità che compongono il linguaggio corrisponde a determinate frequenze dei ritmi oscillatori. Le unità fonetico-fonologiche sono associate ai ritmi gamma e beta, le sillabe e le parole ai ritmi theta e le frasi ai ritmi delta. Gli elettrodi mostrano che ci sono dei gruppi di neuroni che si attivano in base al modo di articolazione di determinate consonanti e vocali; c’è un gruppo di neuroni che elabora le occlusive, fricative e le affrica e un altro che elabora le laterali, nasali, approssimanti e vibranti. Questo combacia perfettamente con la teoria analysis by synthesis dato che il cervello fa delle ipotesi sul segnale in entrata e le compara con le informazioni contenute in memoria. I gruppi neuronali si attivano in base ai tratti distintivi che caratterizzano il suono di input. I ritmi gamma, infatti, che sono quelli implicati nella categorizzazione delle unità fonologiche, risultano attivi nelle aree sensomotorie in cui si attivano i gruppi neuronali in base ai tratti distintivi delle consonanti (labiali, labiodentali, alveolari, postalveolari) e delle vocali (arrotondamento delle labbra e posizione della lingua). In conclusione, percezione e produzione sono da considerare due processi collegati fra loro, basti pensare al bambino che, durante l’apprendimento, trasferisce l’apprendimento percettivo del linguaggio al dominio articolatorio. La stimolazione magnetica transcranica è una tecnica non invasiva che consente, tramite una bobina posizionata direttamente sullo scalpo che crea un campo magnetico, di modificare l’attività elettrica a livello di corteccia cerebrale. È possibile sia inibire che facilitare l’attività neuronale in modo da studiare le funzioni cognitive. Gli impulsi somministrati possono essere singoli o ripetuti. La stimolazione ad impulso singolo permette di dimostrare modifiche nell’eccitabilità del sistema motorio, mentre la stimolazione ripetitiva consente una momentanea interruzione dell’attività del sistema motorio, consentendo di indagare su altri aspetti. Sentire frasi come gli scioglilingua o delle parole con delle polivibranti attiva maggiormente la corteccia motoria di sinistra che controlla la lingua: questo è in linea con le predizioni della motor theory of speech perception. La risonanza magnetica funzionale permette di indagare sull’intensità del flusso sanguigno nelle varie aree del cervello in concomitanza di determinati stimoli uditivi. Il grande limite di questo strumento, tuttavia, è che il cervello è in grado di fare più cose contemporaneamente, perciò risulta difficile capire se l’afflusso sanguigno è diretto verso le aree interessate dallo studio.

Document shared on www.docsity.com Downloaded by: Catneg ([email protected])

Il cervello lavora persino quando c’è silenzio. Se a dei soggetti si chiede di non fare nulla e non gli si somministra alcuno stimolo, si attiveranno ugualmente le aree uditive, motorie e somatosensoriali. Questo perché il cervello deve essere sempre attivo e pronto al controllo dei processi di percezione e produzione dei suoni.

Document shared on www.docsity.com Downloaded by: Catneg ([email protected])