Il tuo indirizzo IP

18.206.194.83

 

Dopo 30 anni di onorato servizio, la VGA va in pensione

Dopo 30 anni di onorato servizio, la VGA va in pensione

Con le nuove generazioni di processori, diciamo definitivamente addio al più fortunato e diffuso standard grafico della storia informatica: la VGA

(Foto: Ognyan Petrov / Flickr CC)

Ufficialmente, il delitto si è consumato nell’agosto del 2015, ma la vittima è stata dichiarata morta solo nei primi mesi di quest’anno. Il suo nome era Video Graphics Array, anche se i suoi amici amavano chiamarla VGA. Sì, era una tecnologia vecchia e logora, ma dopo trent’anni di onorato servizio erano in molti ad aspettarsi un’uscita di scena più onorevole. Una festicciola, per dire, o uno striminzito aperitivo a prosecco scadente e salatini. E invece, niente.

Intel, che fa il bello e cattivo tempo nel settore dei processori, ha lanciato i modelli di nuova generazione, nome in codice Skylake, e senza troppi annunci eclatanti ha deciso di non includervi il supporto alla VGA. Poi è bastato qualche mese, di modo che i produttori di schede madri (la base su cui si installano i vari componenti di un computer) si uniformassero, ed ecco che il Video Graphics Array è stato seppellito insieme alla sua storia. Oggi, trovare una scheda madre nuova con una porta VGA, è praticamente impossibile.

Nostalgia? Per carità, il mondo della tecnologia deve andare avanti, ma è il caso di fare un ripassino su chi era la VGA e cosa ha fatto per noi.

Più grafica per tutti
Prima di quel 1987, anno della sua introduzione sul mercato, il settore dei computer era un grosso, enorme, casino. Gli standard erano pochi e tutti i costruttori realizzavano macchine secondo specifiche proprie. Succedeva, in particolare, nel campo della grafica. Il processore grafico, quello deputato a mostrare i pixel sul monitor, era un componente oscuro, gestito in modo diverso a seconda del produttore. Le aziende non dialogavano molto, all’epoca, la ricerca nel campo era agli inizi, e il risultato finale era dato da standard approssimativi e scadenti come il CGA. Basato sul processore Motorola 6845, offriva due modalità testuali e due grafiche e al massimo si poteva sperare in quella con risoluzione 640 x 200 a 16 colori. Meglio andava a chi aveva la fortuna di puntare su una scheda che supportasse lo standard EGA. Una bomba tecnologica capace di una risoluzione a 640 x 350, e 16 colori non più fissi, ma selezionabili da un insieme (una palette) di 64 opzioni. Tuttavia, vuoi per la mancanza di dialogo che ci siamo detti, o vuoi per tante altre soluzioni concorrenti e per nulla standardizzate, ecco che la grafica di quell’epoca stentava a decollare. E poi arrivò il 1987, l’anno della vera rivoluzione video.

Nel 1984 Steve Jobs sognava di dare molti dispiaceri a IBM, facendo leva sull’interfaccia grafica, sul mouse e sul design ammaliante e a suo modo avveniristico. I costi elevati hanno impedito che ciò avvenisse ma Apple, in fondo, non se l’è cavata affatto male.

Da IBM in poi
Dapprima, Apple lanciò il suo Macintosh II, dotato della scheda Toby, capace di una risoluzione a 640 x 480 a 4-bit. Era possibile espanderne la RAM, per toccare, addirittura, gli 8-bit. Sono in molti a far risalire a questo modello l’aurea che si è creata attorno ai Mac nel settore grafico. Del resto, a quell’epoca, c’era pure Silicon Graphics, produttore di Mountain View specializzato in workstation. In pratica, grossi computer dedicati alla grafica 3D. Offrivano, di fatto, la migliore grafica di quei tempi, ma con prezzi dell’ordine dei 10mila dollari. Sia nel caso di Apple che in quello di Silicon Graphics, e numerosi altri tentativi meno riusciti, rimaneva, tuttavia, il problema della mancanza di uno standard. E così arrivò il momento di IBM.

L’azienda americana, nell’aprile del 1987, lanciò la serie di computer PS/2, e la dotò di un sistema grafico così potente, versatile, e a basso costo, che non impiegò molto a essere adottato da altri produttori di PC. La VGA, appunto. Curiosamente, fu l’ultimo standard grafico creato da IBM e, a ben vedere, l’ultimo in assoluto a essere adottato su così larga scala. Non è un caso se, fino all’altro, ieri, la porta VGA, ormai relegata a orpello integrato direttamente nelle schede madri, era il minimo comune denominatore di tutti i personal computer.

Sebbene pensiamo alla VGA come al classico connettore, di tipo DE-15, presente in computer e proiettori (dove in effetti è ancora molto utilizzato), ciò che molti non sanno è che, in origine, lo standard non prevedeva alcuna soluzione di questo tipo. Si trattava, piuttosto, di una semplice tecnologia per prendere delle informazioni grafiche dalla RAM e visualizzarle su un monitor. Pensate che, in origine, non era nemmeno prevista la possibilità di gestire sprite e animazione, che invece avrebbero decretato il successo della VGA negli anni a venire, grazie ai primi videogame dotati di una grafica degna di questo nome. Videogiochi, dunque, capaci di sfruttare la risoluzione a 640 x 480 e 16 colori, o quella a 320 x 200 e 256 colori, di cui il Video Graphics Array era capace.

Il Mode X
E sempre ai videogame dobbiamo la così detta Modalità X. Presentata da quel geniaccio di Michael Abrash, talentuoso programmatore ora in forze a Oculus, si trattava di una tecnica per ottenere risoluzioni superiori non incluse ufficialmente nello standard VGA originario. Ciò comportava parecchi problemi con alcuni monitor, e così era frequente l’utilizzo della risoluzione “top secret” più vicina a una di quelle progettate nello standard. Si trattava della risoluzione a 320 x 240 e 256 colori. Fa sorridere pensarlo, ma in quel periodo i programmatori di videogame si passavano le specifiche per ottenere quelle 40 linee in più come si trattasse del Sacro Graal. Di fatto, si era soliti utilizzarle, per esempio, per visualizzare le barre di stato (con vite, punteggi e mappe), in modo da lasciare al gioco tutte e 200 le linee orizzontali. I videogame sembravano di un altro pianeta. Chi, all’epoca, inseriva la modalità X nel suo videogame, si sentiva un vero e proprio guru, e si attirava le maledizioni di quei giocatori che non avevano un computer in grado di gestire quella risoluzione così strana ed esigente.

Si tratta solo di uno degli aneddoti relativi a quello che rimaneva uno dei pochi legami col passato dei moderni computer, che per altro avevano già decretato la morte della VGA nei notebook più recenti. Progressivamente, abbiamo visto sparire porte seriali e parallele, slot d’espansione grossi come case, floppy disk, e via dicendo. La VGA, tuttavia, è rimasta lì, per quasi trent’anni, invecchiando bene e senza disturbare nessuno. Al punto che qualcuno, ancora, la sfruttava per gestire video anche in alta definizione. Perché la piccoletta era in grado di farlo, eccome, anche se quei suoi dannati cavi analogici tendevano a rovinare il segnale e farle preferire di gran lunga la più moderna HDMI. E ci mancherebbe il contrario: nessun rimpianto, solo un saluto a una tecnologia così buona da resistere per intere ere geologiche, informaticamente parlando. Ecco, ora sì che l’abbiamo salutata come si deve.

Fonte: Wired.it