top of page

INFORMATICA

 

UNITA' DI MISURA

 

Un Byte racchiude otto unita' di informazione (bit). 

 

Un Kilobyte (abbreviato KB) sono 1024 Byte. 

 

Un Megabyte (abbreviato MB) sono 1024 Kilobyte, 1048576 Byte. 

 

Un Gigabyte (abbreviato GB) sono 1024 Megabyte, 1048576 Kilobyte, 1073741824 Byte. 

 

Un Terabyte (abbreviato TB) sono 1024 Gigabyte, 1048576 Megabyte, 1073741824 Kilobyte, 1099511627776 Byte.

 

linguistica computazionale

trattamento formale del linguaggio umano e sull' uso di strumenti informatici per l'analisi sintagmatica (parsing) di frasi singole in italiano e in inglese

Con linguistica computazionale si intende, in generale, la disciplina riguardante l'utilizzo di strumenti informatici per l'elaborazione del linguaggio umano. Il processo di elaborazione vero e proprio viene chiamato elaborazione del linguaggio naturale (in inglese Natural Language Processing, in sigla NLP) e non è raro incontrare quest'ultimo termine come sinonimo di linguistica computazionale. 

 

La linguistica computazionale è un campo interdisciplinare che unisce la statistica allo studio del linguaggi naturali da una prospettiva informatica. Questa gestione non è limitata a nessun particolare campo della linguistica. La Linguistica Computazionale in principio era un campo di studio affidato ad informatici specializzati nel programmare applicazioni atte a gestire un linguaggio naturale; tuttavia le recenti ricerche hanno mostrato che un linguaggio è molto più complesso di quanto si pensasse in precedenza, per questo motivo adesso i linguisti computazionali lavorano in gruppo insieme a linguisti. I Linguisti computazionali sono in genere un gruppo misto di: linguisti, informatici, esperti in intelligenza artificiale, psicologi cognitivi e logici. 

 

La linguistica computazionale è collegata strettamente all'intelligenza artificiale: per intelligenza artificiale, spesso abbreviata in AI, si intende generalmente la possibilità di far svolgere ad un calcolatore alcune funzioni e alcuni ragionamenti tipici della mente umana. Ed infatti cosa c'è di più tipico dell'uomo se non il suo linguaggio, la sua capacità di comunicare? 

 

 

STORIA DEL COMPUTER

A parte l'abaco, che è il più antico strumento di calcolo usato dall'uomo, le prime macchine costruite per effettuare meccanicamente operazioni di calcolo, tali che ad un variabileinput dell'utente producessero un corrispondente output come effetto di un processo dei dati immessi determinato da una regola matematica o logica, sono  molto antiche.

Le prime importanti esigenze di calcolo riguardarono principalmente l'astronomia, disciplina legata da un verso a concezioni religiose o comunque spiritualiste, e per altro verso ad applicazioni estremamente pratiche come quelle per la navigazione marittima.

Dal requisito della portatilità e dalla presenza di un congegno capace di sottoporre ad un preordinato processo quanto immesso dall'utente, si suole riconoscere in queste prime macchine i primordiali antenati delle macchine moderne.

 

LINGUISTICA COMPUTAZIONALE


Fin dai primi anni settanta, l'avvento dell'intelligenza artificiale, suscitò curiosità e motivo di studi.
Non solo tecnici e programmatori ma, anche linguisti, psicologi, filosofi, parteciparono a quello che può essere definito un vero e proprio studio sull'intelligenza computazionale.
I meccanismi usati dalla macchina per ragionare, i suoi percorsi logici e le molteplici possibilità che forniva questo nuovo sistema, fecero si che studiosi di molteplici discipline unissero le loro forze per trovare una sorta di codice che aumentasse le potenzialità della macchina stessa e nel contempo schematizzasse i processi logici meccanici.
Semantica e semiotica trovarono applicazione nel complesso mondo dell'informatica, schematizzando i ragionamenti in veri e propri blocchi logici.
Ogni parola si intese come un blocco, quindi una sorta di byte, a sua volta formato da piccoli impulsi, bit.
L'operazione, filtrata dai linguisti, consisteva nel tradurre le parole da qualsiasi lingua in inglese e dopo, traslarlo in blocchi logici, cioè nel linguaggio che poteva comprendere l'intelligenza artificiale.
Per comprendere meglio tutto ciò, ci si potrebbe rifare ad un gameshot, immaginiamo un labirinto, una pedina che deve raggiungere un determinato obiettivo, ogni sua mossa è un blocco logico che lo fa spostare di una sola mossa, fino a raggiungere l'obiettivo.
Questo tipo di ragionamento, che prevede uno schema mentale fatto di tanti micropassaggi, può essere definito: “intelligenza computazionale”

bottom of page