Vai al contenuto

Amiga World


Shuji

Messaggi raccomandati

Se non c'e' manco l'amigaos, mi faccio un pc superiore.

 

Comunque.

 

Vogliamo parlare un attimo di informatica, elettronica, sviluppo 'serio'?

 

Ok.

 

Ci sono molti tipi di realizzazione e produzione di un chip.

Da piu' di una decina d'anni principalmente una, che segue il modello dei Gate Array, cosa sempre seguita da Intel e concorrenti.

Prima c'era anche il modello basato sulla 'customizzazione'; era il modello seguito da Jay Miner e similari, come l'ormai quasi defunta SGI.

 

Quale e' la differenza, e di cosa stiamo parlando?

Un passo indietro.

 

Questa di seguito e' un'immagine relativa ad un tipico Gate Array:

gate_array.gif

(la provenienza dell'immagine e' dal sito Fujitsu http://www.fujitsu.com/emea/services/microelectronics/asic/asic/techprod/gatearray/index.html )

 

Ora, di seguito usero' termini moooolto semplificati ma che comunque rendono chiara l'idea di cosa stiamo parlando.

 

Ok, guardate l'immagine qua sopra; immaginate di dover tracciare una riga obliqua 'unendo' i puntini dati dai punti di incontro delle linee.

Provate ora a pensare di tracciare una o due linee parallele alla precedente obliqua.

Notate nulla?

Per quanto possiate mettere vicine le linee, ci sara' sempre SPAZIO tra queste.

 

Ok.

Immaginate ora invece di tracciarvi all'interno lo schema di un circuito, con collegamenti e similari.

Ok, e' inevitabile che: tutta la superficie non puo' essere utilizzata, ci saranno sempre 'spazi' inutilizzati.

 

Perfetto, questo e' il modello di sviluppo attuale (ripeto, moooolto semplificato in termini) di chip e microchip.

Il vantaggio di utilizzare questo modello di sviluppo e' la estrema semplicita' di realizzazione (con oltremodo vantaggi sulle catene di montaggio e la produzione di massa), il che permette di 'sfornare' nuovi chip a getto continuo.

 

Il problema di questo sviluppo e' lo spazio 'sprecato'.

Per ovviare allo spazio sprecato, si puo' fare solo in un modo, miniaturizzando sempre piu' il gate array, con nuovi materiali, nuove metodologie di costruzione.

 

Ma lo 'spreco' resta, proprio per il tipo di metodologia utilizzata.

 

Ora.

 

Un chip 'custom' invece usa una metodologia di sviluppo del tutto differente.

Immaginate che NON ci sia quella 'grata' del gate array.

Immaginate ora di 'disegnare' quelle linee oblique di prima con la prossimita' tra di esse che dipende solo dal livello costruttivo e di miniaturizzazione, del resto permesso dallo sviluppo anche dai gate array attuali.

 

Viene da se, che non restando vincolati a quella 'grata', semplicemente, non c'e' spreco di silicio, o meglio, dipende tutto da chi progetta il circuito.

 

Voi direte, ma non e' meglio la seconda metodologia?

Per quanto assurdo possa sembrare, a livello prettamente commerciale, NI.

 

NI in quanto il maggior vantaggio dato dall'utilizzo di tutta la superficie, ha un 'problema' di fondo.

 

I gate array sono molto semplici da 'aggiornare', i chip custom che si basano su di un disegno molto ben preciso, no.

I chip custom hanno sempre avuto quindi un 'problema' che e' esploso con la diffusione sempre maggiore, almeno negli ultimi 25-30 anni dell'elettronica di massa; l'aggiornamento e i nuovi 'modelli' che possano seguire o meno determinate esigenze.

 

Quindi, i chip custom a livello prettamente 'tecnico' restano la migliore soluzione, ma:

1) vanno progettati gia' 'ab initio' con una GRANDE visione nel futuro, per anticipare i tempi e restare attuali anche per uno-due-tre anni.

2) ogni aggiornamento non e' conseguentemente 'costante' come quanto permesso dai gate array, ma corrisponde ad un 'gap' generazionale; quindi il costo di ricerca e sviluppo e' molto superiore ai gate array.

 

E qua, per quanto strano possa sembrare il discorso, c'e' realmente una metafora dei nostri tempi.

 

Da decine d'anni stiamo lanciando costantemente sul mercato circuiti che potrebbero essere enormemente ottimizzati rispetto agli attuali, dal consumo energetico molto inferiore, senza eccessive esigenze di overcloccare, e anche dalle dimensioni inferiori.

 

Questo non accade perche' le esigenze dell'elettronica di massa sono in costante evoluzione, perche' devono essere buttati sul mercato chip in continuazione, e perche' soprattutto NON c'e' piu' come un tempo quella quantita' e tipologia di persone con una GRANDE VISIONE nel futuro.

 

I chip custom, ad esempio, sono quelli che piu' o meno ancora (meno direi) sono utilizzati nelle console di videogiochi, che appunto hanno garantito un 'supporto' per i giochi di anni, ed ogni nuovo 'lancio' e' appunto un salto generazionale in avanti.

 

Altro problema, che e' paro alla metodologia dei gate array, e' quello della sempre minore ingegnerizzazione del software, anche e non solo per il semplice fatto che su di un programma lavorano in decine se non centinaia di persone, ed e' quello di usare 'strati' di interfaccia/front end simili concettualmente a quello dei gate array; sovrastrutture che 'traducono' le intenzioni degli sviluppatori.

E quindi generando codice decisamente inefficiente, anche i programmi richiedono sempre maggiori prestazioni, 'sprecando' risorse quanto si 'spreca' spazio sui chip a livello costruttivo.

 

AMIGA e' figlia di una particolare 'visione' delle cose, posta su chip da costruttori che ne avevano realizzato i chip custom dedicati.

 

Non c'e' piu' quello stesso 'pensiero' o modo di fare.

 

Un po' di rammarico, personalmente, mi viene dal pensare al fatto che la stessa informatica per cercare di offrire sempre nuovi prodotti, altro non fa che sprecare risorse, umane, progettuali ed anche di natura energetica.

 

Ho la personale convinzione che prima o poi tutto il sistema che s'e' venuto a creare paghera' a caro prezzo tutto questo.

 

Fino ad allora, sempre maggiore miniaturizzazione, nuovi materiali, sempre piu' energia elettrica, sviluppo di calore, ventole e similari come se piovesse. Ormai siamo talmente prigionieri di questo modo di fare e di essere, che non ci stupiamo realmente piu' di dover mettere un blocco di 1KG (circa) con diverse heatpipes e 1/2 ventole ad alta efficienza, per poter solo utilizzare una CPU.

Link al commento
Condividi su altri siti

  • 3 weeks later...

leggermente ot (si parla di commodore in generale)

 

http://www.corriere.it/scienze_e_tecnologie/12_aprile_10/morto-jack-tramiel-inventore-commodore-64_df8fc90c-82f5-11e1-b660-48593c628107.shtml

 

Addio Mr Commodore 64: è morto Jack Tramiel

Ebreo polacco sopravvissuto ad Auschwitz, inventò il celebre computer (oltre al Vic 20 e al 128). E ne vendette a milioni

 

 

Tramiel e la sua celebre creatura

MILANO - Quella tastiera squadrata e quello schermo viola, hanno segnato l'infanzia di tantissimi italiani tra i 35 e i 45. Oltre ad aver alfabetizzato all'informatica milioni di persone in tutto il resto del mondo. Già, il Commodore 64, il leggendario e monolitico computer (ma anche il cugino Vic 20 e il concorrente Atari) non esisterebbero se non li avesse inventati Jack Tramiel. Che se ne è andato, domenica sera, all'età di 83 anni.

LA COMMODORE INC. - Figlio di ebrei polacchi, sopravvissuto ad Auschwitz, Tramiel emigrò negli Usa all'inseguimento di un sogno. Come tanti che poi avrebbero sfondato nell'informatica, iniziò anche lui con le macchine da scrivere. Prima facendo manutenzione per l'esercito americano, poi mettendosi in proprio e fondando appunto la Commodore Inc. Leggenda vuole che la chiamasse così perchè innamorato del gergo militaresco. E perché admiral e coronel erano già stati presi da altre società.

 

INVASE IL PIANETA- Tramiel passò poi alla vendita di calcolatori elettronici e, con l'aiuto di valenti tecnici, lanciò all'inizio degli anni'80 prima il Vic 20, poi il Commodore 64 e infine il 128. Abbassando i prezzi e popolarizzando il computer per tutti, quando i contemporanei Pc e Mac erano fuori portata, la Commodore invase il pianeta. Ma con questa politica aggressiva spinse forse troppo l'acceleratore Tramiel, litigò con i soci e mollò l'azienda per passare alla nemica Atari, nel 1984. Poi il lento declino di questa generazione di computer coincise con il declino personale di Tramiel, mentre il testimone della missione telematica veniva trasmesso definitivamente a Microsoft e Apple. Ma se non ci fosse stato lui, con quella tastiera squadrata e quello schermo viola....

 

 

la mia infanzia è legata al vic 20 :wub:

RIP :crying:

Link al commento
Condividi su altri siti

  • 7 months later...

Ci sono molti tipi di realizzazione e produzione di un chip.

Da piu' di una decina d'anni principalmente una, che segue il modello dei Gate Array, cosa sempre seguita da Intel e concorrenti.

Prima c'era anche il modello basato sulla 'customizzazione'; era il modello seguito da Jay Miner e similari, come l'ormai quasi defunta SGI.

(....)

 

Perfetto, questo e' il modello di sviluppo attuale (ripeto, moooolto semplificato in termini) di chip e microchip.

Il vantaggio di utilizzare questo modello di sviluppo e' la estrema semplicita' di realizzazione (con oltremodo vantaggi sulle catene di montaggio e la produzione di massa), il che permette di 'sfornare' nuovi chip a getto continuo.

 

Il problema di questo sviluppo e' lo spazio 'sprecato'.

 

(....)

 

Voi direte, ma non e' meglio la seconda metodologia?

Per quanto assurdo possa sembrare, a livello prettamente commerciale, NI.

 

NI in quanto il maggior vantaggio dato dall'utilizzo di tutta la superficie, ha un 'problema' di fondo.

 

I gate array sono molto semplici da 'aggiornare', i chip custom che si basano su di un disegno molto ben preciso, no.

I chip custom hanno sempre avuto quindi un 'problema' che e' esploso con la diffusione sempre maggiore, almeno negli ultimi 25-30 anni dell'elettronica di massa; l'aggiornamento e i nuovi 'modelli' che possano seguire o meno determinate esigenze.

 

 

Mi sembra eccessivo, francamente. Per prima cosa i processi "sea of gates" come li intendi tu non sono più moltissimo usati - chi ha bisogno di piccoli volumi va direttamente sulle FPGA, in molti casi. Adesso per processo "semi-custom" è più facile che si intenda un ASIC fatto con delle maschere specifiche, ma sintetizzato totalmente in automatico da VHDL/Verilog.
 
Certo, un place and route totalmente automatico non è intelligente quanto un ingegnere: ma il punto è che la complessità dei chip attuali va al di là delle capacità umane di starci dietro, e i transistor ormai sono praticamente gratis. Tutto il contrario degli anni '90, in pratica, quando i gate non bastavano mai mentre le frequenze di clock salivano a ritmi folli. Tutta la "rivoluzione multicore" in fondo è data dal fatto che a parte i fabbricanti di memorie nessuno sapeva più che farci con tutti questi transistor (E direi che le avevano provate tutte, te li ricordi i trenta o quanticazzo erano stadi di pipeline degli ultimi PIV ?)
 
Stai confrontando chip fatti a un micrometro di passo con chip a 32 se non 22 nanometri, dove parecchie limitazioni sono date dalla mera fisica della fotoincisione (stiamo tirando gli ultimi limiti della fotolitografia come la conosciamo ormai, la forma stessa delle immagini che vai a incidere non è più libera).

 

 

Quindi, i chip custom a livello prettamente 'tecnico' restano la migliore soluzione, ma:

1) vanno progettati gia' 'ab initio' con una GRANDE visione nel futuro, per anticipare i tempi e restare attuali anche per uno-due-tre anni.

2) ogni aggiornamento non e' conseguentemente 'costante' come quanto permesso dai gate array, ma corrisponde ad un 'gap' generazionale; quindi il costo di ricerca e sviluppo e' molto superiore ai gate array.

 

E qua, per quanto strano possa sembrare il discorso, c'e' realmente una metafora dei nostri tempi.

 

Da decine d'anni stiamo lanciando costantemente sul mercato circuiti che potrebbero essere enormemente ottimizzati rispetto agli attuali, dal consumo energetico molto inferiore, senza eccessive esigenze di overcloccare, e anche dalle dimensioni inferiori.

 

 

 

Non è detto che spendere più risorse di tanto sul routing e sull'utilizzazione di area sia sempre una buona idea, a volte può diventare un classico esempio di economia perversa. Esattamente come l'ultima versione di GCC produce codice che quasi nessun programmatore riuscirebbe a battere lavorando in assembly - a meno di mettere assieme gente molto brava, su un problema circoscritto, e comunque a costi altissimi.
 
Comunque la progettazione full-custom non è mica morta, eh. I processori Intel sono definiti "full custom", come pure quelli degli iPad e credo molti altri. Le GPU mi pare siano abbastanza un misto. Ma comunque le due "filosofie" tenderanno abbastanza a confondersi - un po' come la vecchia guerra "CISC versus RISC", di cui non è possibile stabilire un vincitore dato che adesso abbiamo più o meno tutti processori con nuclei RISC che emulano architetture ultra-CISC (presente che razza di opcode vengono introdotti da cose come l'SSE4.2 ?)
 

 

Fino ad allora, sempre maggiore miniaturizzazione, nuovi materiali, sempre piu' energia elettrica, sviluppo di calore, ventole e similari come se piovesse. Ormai siamo talmente prigionieri di questo modo di fare e di essere, che non ci stupiamo realmente piu' di dover mettere un blocco di 1KG (circa) con diverse heatpipes e 1/2 ventole ad alta efficienza, per poter solo utilizzare una CPU.

 

Le tensioni di soglia sono già ridicole, più di tanto non possono calare... (gli isolanti di gate ormai sono talmente sottili che un singolo atomo di impurezza ti sposta quasi fuori dei limiti la threshold di quel MOSFET, lo sai? :) ) Eppure il miglioramento della performance per watt rimane l'obiettivo principale... l'Amiga consumava poco perchè faceva poco, come tutti i computer di allora.

Modificato da werner
Link al commento
Condividi su altri siti

Sostanzialmente concordo con la specificazione (ma che sei andato a ribeccare?  :°_°: )

 

(Degli FPGA parlavo anch'io da qualche parte)

 

Per i processori, non intendo strettamente le cpu, quanto appunto le varie controparti gpu etc.

E di soluzioni custom non se ne vedono da tempo, a parte per console o comunque prodotti che garantiscono un ciclo di utilizzo abbastanza ampio di almeno un 3 anni circa.

 

Non sarei cosi' poi convinto su risc/cisc; manca (in un mondo ideale) un anello di congiunzione un po' piu' puro, come l'esperienza motorola 88k e non il powerpc. (cosi' come in un mondo ideale Intel non avrebbe avuto tutta questa rilevanza)

Per efficienza di codice, considera che il mio punto di vista e' quello di chi realizzava demo, intro e 'dentro' (ho sempre adorato sto termine del ca**o) in una manciata di kb. Non mega, proprio kb, e che aveva comprato Il Lattice C prima del passaggio a SAS, e aveva visto con orrore il codice c generato dai preprocessor object c++

 

(non dimentichero' mai gli esempi degli scacchi della SAS per descrivere la programmazione per oggetti...)

 

Con un pizzico di polemica (non con te) si puo' dire che le maggiori risorse date dalla miniaturizzazione hanno permesso la realizzazione di 'layer' di programmazione tanto idioti da poter essere adoperati da molti che manco si sarebbero avvicinati alla programmazione qualche anno prima.
E i risultati sono sotto gli occhi di tutti, ormai il concetto di ottimizzazione e' roba piu' che altro da 'snob', tanto escono fuori delle nuove stufette ogni anni.

Link al commento
Condividi su altri siti

  • 11 months later...
  • 1 year later...

http://www.corriere.it/tecnologia/cyber-cultura/cards/warhol-l-amiga-pc-sogni-ha-30-anni/amiga-1000-primo-computer-multimediale_principale.shtml

 

1985-2015
Warhol e l’Amiga, il pc dei sogni ha 30 anni
 
Era il 23 luglio: l’artista pop al Lincoln Center di New York dipinge sul computer un ritratto digitale di Debbie Harry del gruppo musicale Blondie: era nata la prima macchina multimediale
di Vincenzo Scagliarini
  
Amiga 1000, il primo computer multimediale
 
I pc proiettavano solo righe testo color ambra su sfondo nero e qualche bip solitario che solo con l’immaginazione poteva esser definita musica. E i Macintosh erano appena nati, avevano un sistema operativo a icone, ma tutto era in bianco e nero. E poi c’era qualcos’altro: l’Amiga. Era capace di elaborare 4096 colori e aveva un audio a quattro canali. Un sistema operativo multitasking e un design elegante. Permetteva di giocare, creare immagini e animazioni. E costava la metà dei concorrenti. 
A mostrare tutto ciò fu Andy Warhol, il genio della Pop Art. Il 23 luglio del 1985, al Lincoln Center di New York, dipinge un ritratto digitale di Debbie Harry del gruppo musicale Blondie. Era la presentazione ufficiale dell’Amiga 1000. Fu definito il computer dei sogni. Così inizia la saga del primo pc multimediale, prima che questa parola diventasse d’uso comune (l’informatica la scoprì solo nel 1990).A mostrare tutto ciò fu Andy Warhol, il genio della Pop Art. Il 23 luglio del 1985, al Lincoln Center di New York, dipinge un ritratto digitale di Debbie Harry del gruppo musicale Blondie. Era la presentazione ufficiale dell’Amiga 1000. Fu definito il computer dei sogni. Così inizia la saga del primo pc multimediale, prima che questa parola diventasse d’uso comune (l’informatica la scoprì solo nel 1990).
 
Un hardware rivoluzionario
 
Ma la storia inizia tre anni prima, nel 1982. Jay Miner – il futuro padre di Amiga – sta lavorando alla Hi-Toro. Vuole costruire una console da gioco che si comporti anche da personal computer. Il nome in codice è Lorraine. È una macchina basata sul nuovo e potente processore a 32 bit Motorola 68000 a 8 megahertz e ha tre chip personalizzati in grado di gestire grafica, audio e accesso diretto alla memoria: si chiamano Denise, Angus e Paula e aiutano il processore nei calcoli. Questa soluzione permetterà all’Amiga di fare cose che nessun pc era in grado di fare. 
Nel frattempo la società cambia nome, diventa Amiga e assume le persone che lavoreranno ad AmigaOS, un sistema operativo a colori. Con menu, icone e il multitasking. Era qualcosa di impensabile: l’Amiga era in grado di svolgere più operazioni contemporaneamente. Nel frattempo la società cambia nome, diventa Amiga e assume le persone che lavoreranno ad AmigaOS, un sistema operativo a colori. Con menu, icone e il multitasking. Era qualcosa di impensabile: l’Amiga era in grado di svolgere più operazioni contemporaneamente. 
 
Entra Commodore
 
Nel 1984 il progetto non è ancora completo, ma l’azienda sta esaurendo i fondi. Decide di presentare Lorraine al Winter Ces di Chicago nella speranza di suscitare interesse e investimenti. Mostra la “Bouncing ball”. Una palla che rimbalza da una parte all’altra dello schermo. I movimenti sono fluidi e i suoni fedeli. Il pubblico non credeva che fosse possibile realizzarlo con un personal computer. 
Nonostante lo stupore, però, la fiera non porta benefici. Poi si fa avanti Commodore e l’acquisizione viene perfezionata. L’azienda già nel mercato con il Commodore 64 e il Vic 20, vuole vendere computer che non siano percepiti come “giocattoli”. I suoi due prodotti hanno un’enorme successo, ma non interessano alle grandi aziende. E Amiga può essere la soluzione.
 
Il mondo non è ancora pronto
 
L’Amiga 1000 non vendette quanto sperato. L’industria dell’epoca non capiva un computer che permetteva sia di giocare che di lavorare. Amiga era un prodotto spiazzante. Per i più conservatori era semplicemente inutile: un doveva servire solo solo far girare fogli di calcolo. Per il resto ci sono le console da gioco ma, confrontato con queste, l’Amiga 1000 era troppo costoso.La politica commerciale di Commodore non fu all’altezza e non riuscì a comunicare le potenzialità del nuovo computer. L’azienda non riusciva a fornire il supporto tecnico adeguato (il punto di forza di Ibm) e ciò ne scoraggiò l’adozione nelle grandi imprese. 
 
Deluxe Paint, il precursore della computer grafica
 
Ma a credere nel personal computer fu Electronic Arts. Ora è uno dei più spietati colossi dei videogiochi ma, nel 1985, era una piccola realtà. Intuì le potenzialità dell’Amiga e sviluppò, nel novembre dello stesso anno, Deluxe Paint. Un programma di elaborazione immagini all’avanguardia. La prima versione di Photoshop per Macintosh sarebbe nata cinque anni dopo, mentre il programma di Ea era già maturo. Aveva vari tipi di pennelli ed è stato il primo strumento artistico per personal computer. Con le successive versioni consentirà anche di creare animazioni.
Ogni pc ha un suo programma simbolo. All’epoca i computer Ibm avevano il foglio di calcolo Lotus 1-2-3, i Macintosh avevano il programma d’impaginazione Page Maker e l’Amiga aveva Deluxe Paint, noto anche come Dpaint.
 
La piattaforma da gioco ideale
 
L’Amiga viene oggi ricordata come una macchina per giocare, ma Commodore non riuscì a coinvolgere gli sviluppatori di videogame. Nel primo anno i titoli erano pochi e nessuno tra questi era un prodotto originale. Tutto cambiò nel 1987, quando Cinemaware sviluppò Defender of the Crown. È stato un gioco strategico ad ambientazione medievale coinvolgente e dall’alta qualità grafica. Sebbene non si tratti di un capolavoro e oggi è stato dimenticato mostrò per la prima volta le potenzialità di questa piattaforma in campo videoludico. 
Di qui in poi sono arrivati su Amiga titoli come Monkey Island, Sensible World of Soccer, Cannon Fodder, The Settlers, Lemmings, Civilization, Syndacate e Worms.
 
Pro Tracker e la musica elettronica
 
Per Amiga c’era già un software che ne fruttava le potenzialità audio: Deluxe Music (o DMusic), ma nel 1987 nacque uno dei primi strumenti in grado di produrre musica elettronica: Pro Tracker.
Non utilizza il metodo di composizione tradizionale, basato su tastiera e spartito, ma ha dei banchi dove poter caricare i campionamenti. Diventa uno strumento per creare brani techno, house e trance e viene usato sia a livello amatoriale che professionale.
 
Effetti speciali alla portata di tutti
 
Le possibilità di espansione del modello 2000 vennero sfruttate da NewTek, azienda specializzata in programma per la modellazione tridimensionale. Distribuì il VideoToaster, una soluzione hardware e software che vece entrare l’Amiga nel mondo dell’editing video. Si trattava di una scheda che rimpiazzava le componenti video del computer e gli dava più potenza: rendeva possibile l’elaborazione di 16,8 milioni di colori. E con il software LightWave 3D, ancora in uso, gli effetti speciali digitali non erano più legati alle megaproduzioni di Hollywood.
Gli Amiga con VideoToaster per molti anni sono rimasti lo standard negli studi televisivi di piccole e medie dimensioni. Anche film come Jurassic Park (1993) hanno effetti speciali realizzati con questa soluzione. 
 
L'inizio del declino
 
Nel 1990 i limiti della strategia di Commodore diventano evidenti. L’azienda non ha mai voluto investire in ricerca e sviluppo e la tecnologia Amiga, cinque anni prima all’avanguardia è ora obsoleta. Vengono lanciati nuovi prodotti, come l’Amiga 3000, con processore e sistema operativo aggiornati, ma non riescono ad affermarsi. Nello stesso anno nasce il Super Nintendo, una console da gioco che erode il primato dell’Amiga 500 nel mondo dei videogame.
 
L'ultima innovazione
 
Nel 1992, a sette anni dal debutto, c’è la prima modifica hardware sostanziale. Nasce l’Aga (Advanced Graphics Architecture) e viene prodotta le terza revisione di AmigaOs. Sono innovazioni introdotte nell’Amiga 1200 e nel modello 4000. 
​Però il mondo dei personal computer è cambiato. La soluzione basata sui chip personalizzati che ha reso Amiga efficiente e più performante dei concorrenti ora è il più grosso limite. Si tratta di hardware chiuso, che limita l’espansione. Mentre i personal computer possono dotarsi di nuove schede audio e video e lasciare immutato il software, con il cambiamento di architettura dell’Amiga i programmi ora devono essere riscritti. E ciò ha scoraggiato molti sviluppatori. Il successo del modello 500 non viene mai più raggiunto.
 
La bancarotta
 
L’Amiga 1200 fu lanciato a un prezzo aggressivo: 599 dollari, ma Commodore inoltre non riuscì a raggiungere accordi con i fornitori e non riuscì a soddisfare la domanda di Amiga 1200. È un caso unico nell’elettronica di consumo: a novembre 1992 le vendite di Amiga sono state superiori rispetto al periodo natalizio. E a gennaio dell’anno successivo le vendite crollarono del 70%. 
​L'AmigaOS 4, totalmente riscritto per girare su nuovo hardware, non più su quello originale.
prevnext ​L'AmigaOS 4, totalmente riscritto per girare su nuovo hardware, non più su quello originale. Commodore riuscì a sopravvivere un altro anno, poi ad aprile 1994 dichiarò bancarotta. La proprietà intellettuale fu venduta a prima all’americata Gateway e poi alla tedesca Escom. Poi passò di manco ancora nel 1999 quando fu acquistata dalla startup Amiga Incorporated. Nel frattempo il sistema operativo continuò a esser sviluppato dall’azienda belga Hyperion. Tiene ancora in vita il progetto e ha lanciato l’ultima versione di AmigaOS nel 2008.
 
Una comunità leale
 
La forza di Amiga è sempre stata nella comunità di utenti fedeli, presenti soprattutto in Europa. Anche oggi è possibile acquistare uno di questi computer. Nel 2001 è nata la famiglia AmigaOne, prodotti assemblati sui quali è possibile far girare il sistema operativo AmigaOS. È anche possibile emulare il sistema con l’Ultimate Amiga Emulator.
​AmigaOne X1000 è una delle nuove incarnazioni di Amiga. Basato su architettura PowerPc e non più su quella Motorola.
Per festeggiare il trentesimo compleanno sono state organizzate iniziative negli Stati Uniti, dal Computer History Museum ​e in Europa, ad Amsterdam​.
 
Demoscene e la cultura hacker
 
Con l’Amiga si sviluppò anche un fenomeno artistico molto particolare noto come Demoscene. È legato alla pirateria e alla cultura hacker. A cavallo tra la metà degli anni Ottanta e gli anni Novanta si diffusero copie illegali di videogame accompagnate presentazioni artistiche. Animazioni e musica creata dai gruppi che “craccavano” i giochi. Eliminavano le protezioni anticopia e firmavano il proprio lavoro con una presentazione (demo) che partiva prima del videogame.
Una delle più famose è la Megademo​. Creata da Red Sector, un gruppo di cracker della Germania Ovest, occupava due floppy disk, più del doppio di un gioco dell'epoca. Megademo dura 14 minuti ed è divisa in più sezioni. La prima con Eddie, la mascotte della band heavy metal Iron Maiden, la seconda con due facce di Arnold Schwarzenegger danzanti, un quiz sulla storia dell’Amiga e, infine, da Juggler, un’animazione molto famosa usata per dimostrare le potenzialità di questio computer. Tutto ciò può sembrare pacchiano dal punto di vista visivo, ma è un autentico capolavoro di programmazione.
 

 

 

Link al commento
Condividi su altri siti

Veramente c'e' solo in piu' un'immagine di un c64, che parlando di commodore comunque ci sta.

Immagino che per dire che erano a caso, tu abbia riconosciuto; a500, a600, a1200. a2000, a3000. a3000t, a4000.

 

Ma vabbe'.

 

Io invece mi chiedo questo qua che cosa sia (evidentemente, mi auguro, un proto)

123506374-c27283f4-b9b5-49ba-88fd-e75c27

Link al commento
Condividi su altri siti

Infatti si vedono i vari modelli dell'amiga, e immagini a caso di alcuni giochi.

Fare una carrellata dei vari modelli, volevano fare ? Oppure hanno usato google immagini e hanno preso immagini a caso ?

 

Per l'immagine in GC, non so bene da dove proviene o meglio se si tratta di un modello ipotetico fatto da qualcuno, oppure di altro.

Link al commento
Condividi su altri siti

Ricordo lo spot dell'Amiga 600 che faceva "Amiga 600,perché non te la compri?" ..Già,perché? Ci pensai un pò,quell'anno,e poi optai per un...Commodore 64 di seconda mano,ah ah ah. A ben vedere non me ne pento: l'A600 fu uno dei tanti flopponi dell'ultimo periodo( e doveva ancora arrivare l'Amiga CD32:quello dev'essere stato il chiodo sulla bara della Commodore...) ,ma mi chiedo: cosa diavolo aveva in più? Perché la CBM investiva in modelli apparentemente inutili invece di puntare su soluzioni che durassero a lungo termine? Un pò come il Commodore16 e il Plus4 : a cosa serviva produrre due sistemi chiaramente inferiori al best seller C64? Allo stesso modo,se già hai una macchina dallo strapotere micidiale come l'A500,che senso ha fare l' "upgradettino" A600 e subito dopo buttare fuori il 1200? Sembra quasi un suicidio commerciale... Manco fosse la prima volta,poi! ( vedi C128,ignorato dalle software house ; C64 Game System,console che ovviamente non poteva competere col NES ;  varie incarnazioni dell'Amiga dal costo troppo elevato e dalle prestazioni ma completamente sfruttate ; l'Amiga 500+ che non ricordo cosa avesse in più ma temo poco o nulla...Per non parlare del prototipo C65 !!!) 

 

Qui c'è qualcuno che aveva l'A600 e può dire che valesse la pena? 

Link al commento
Condividi su altri siti

io ho avuto un a5000, a2000, a3000, a4000 (questo l'ho ancora), il 1200 non era una brutta macchina, francamente com'era il 600 manco lo ricordo  :giggle:

 

l'amica cd3d aveva il famigerato chip per il chunky pixel, se fosse stato supportato non sarebbe stato manco male, il problema e' stato l'AGA, troppo poco, troppo tardi.

Link al commento
Condividi su altri siti

Io ho ancora l'Amiga 1200 con HD da 500 Mb lettore CD e scheda di espansione con 68050 a 50 megaHertz e 16 Mb di Ram!!!

 

Ovviamente l'avevo modificata per uscire con la piattina e l'alimentazione del lettore CD.

Link al commento
Condividi su altri siti

Ho appena scoperto che su Amiga si poteva giocare a Street Fighter quando un intero popolo di bambini pacioccosi sognava di poterci giocare tutti i giorni e non solo in sala giochi (per me solo al mare perchè al mio paese mai è esistita una sala giochi).

Amiga master race.

Link al commento
Condividi su altri siti

Crea un account o accedi per lasciare un commento

Devi essere un utente registrato per poter lasciare un commento

Crea un account

Iscriviti per un nuovo account nella nostra comunità. È facile!

Registra un nuovo account

Accedi

Sei già un account? Accedi da qui.

Accedi Ora
  • Navigazione Recente   0 utenti

    Nessun utente registrato visualizza questa pagina.

×
×
  • Crea Nuovo...

Informazione Importante

Procedendo oltre nell'uso di questo sito, accetti i nostri Termini Di Utilizzo