Paolo Guccini

"Impossibile" non è mai la risposta giusta

L'ALFABETO MORSE NON E' BINARIO
(focus nell'articolo sulla compressione dati)

Inventato da S.F.B. Morse (1791-1872), è un sistema di codifica dell’alfabeto e dei numeri sfruttando sequenza di punti e linee che è divenuto famoso come il sistema di comunicazione a mezzo telegrafo.
Esso si basa sull’idea di attribuire ad ogni carattere un codice la cui lunghezza sia in funzione della distribuzione statistica all’interno della lingua inglese.
In tal modo le lettere più frequenti hanno una lun ghezza minore e conseguentemente anche tutto il messaggio ha una lunghezza ridotta. Questo vantaggio si perde quando il testo del messaggio non è nella lingua anglosassone perché la distribuzione delle lettere varia da lingua a lingua, ma, al fine di evitare che ogni lingua abbia una specifica versione di codice Morse e la relativa tabella di codifica e decodifica, si è preferito rinunciare al beneficio della riduzione della lunghezza del messaggio ottenendo nel contempo una universalità del sistema.
Una cosa curiosa da notare è che, a differenza di quanto può apparire a prima vista, l’alfabeto Morse non è basato su un sistema di codifica binaria pura: a sequenza di punti e linee che potrebbe essere vista come sequenza di uno e di zero, sfrutta in realtà un altro simbolo: lo spazio.
Questo accade perché la trasmissione era effettuata da un uomo verso un altro uomo: se per un computer è semplice comprendere una sequenza dì punti codificati come stato binario, per l’uomo sarebbe impossibile interpretare la stessa sequenza se non ci fossero gli spazi che gli consentissero di contarne i componenti.
L'uomo non riesce a definire normalmente con precisione lo scorrere del tempo: se si chiede ad una persona di segnalare lo scadere di un minuto senza ricorrere a strumenti quali l’orologio, essa fornirà quasi sempre un momento diverso da quello esatto. Quindi, se si deve ascoltare un messaggio composto solo da segnali puramente binari, la cui suddivisione deve essere determinata dal tempo, l’uomo non è in grado di svolgere questa operazione con successo. Per esempio, se ogni secondo viene inviato un nuovo segnale che ha un durata di pari tempo, dopo 60 segnali identici l’uomo potrebbe averne conteggiati di più o di meno, ma quasi mai 60.
Per gli apparati elettronici la situazione è radicalmente differente in quanto dispongono di un orologio interno che gli permette di stabilire esattamente quando inizia e quando finisce un segnale. Per inciso, anch’essi inseriscono una pausa fra l’inizio del segnale ed il momento in cui esso può essere letto. Questo periodo di latenza è necessario affinché lo stato elettrico dell’apparato superi il valore di soglia che lo rende valido: ad esempio, la comunica zione dati fra il computer e la stampante prevede che, indicato con t il tempo di durata di ogni singolo segnale, il ricevente acquisisca il valore vsolo dopo che sia trascorso un tempo tale che consenta alla porta di ingresso di modificare lo stato elettrico.
Se si trasmette prima il segnale On e poi 0ff, la porta ha bisogno di un periodo (ovviamente inferiore a t) affinché lo stato elettrico del precedente segnale sia disperso e quindi il valore 0ff non sia considerato come On perché sulla porta era presente ancora dell’elettricità residua.

Il testo e' stato acquisito tramite OCR dalla rivista su cui e' stato pubblicato e velocemente ricontrollato.
Le segnalazioni di errori saranno molto gradite e si possono fare alla pagina Contatti.

Tratto da:
Paolo Guccini
Rivista DEV Computer Programming
Edizioni Infomedia
1995