La storia del chip di silicio
Mentre i primi computer sono nati prima della sua invenzione, il microchip di silicio è il progresso che ha reso possibile l'era moderna dei computer. La capacità di creare un circuito stampato miniaturizzato da questo semiconduttore è stata ciò che ha fornito ai computer enormi progressi in termini di velocità e precisione, trasformandoli da dispositivi delle dimensioni di una stanza a macchine che potevano stare su una scrivania o in grembo.
Progettazione di circuiti iniziali
I primi computer utilizzavano dispositivi chiamati tubi a vuoto nei loro progetti di circuiti, che fungevano da porte per accendere e spegnere le correnti per dirigere la funzione del computer e memorizzare le informazioni. Questi erano componenti fragili, tuttavia, e spesso si guastavano durante il normale funzionamento. Nel 1947, l'invenzione del transistor sostituì il tubo a vuoto nella progettazione del computer e questi piccoli componenti richiedevano un materiale semiconduttivo per funzionare. I primi transistor contenevano germanio, ma alla fine il silicio divenne il semiconduttore preferito dagli architetti di computer.
Vantaggi del silicio
Come semiconduttore, il silicio ha proprietà elettriche che si trovano tra conduttori e resistori. I produttori possono alterare chimicamente il silicio di base per modificarne le proprietà elettriche, facendolo condurre elettricità a seconda delle esigenze specifiche dell'unità. Ciò ha consentito ai progettisti di computer di creare molti dei loro componenti con lo stesso materiale, invece di richiedere fili e altri materiali separati per ottenere gli stessi risultati.
Il microchip
Sfortunatamente, i complessi circuiti richiesti per computer potenti significavano ancora che i dispositivi dovevano essere estremamente grandi. Nel 1958, tuttavia, Jack Kilby ebbe l'idea di creare il circuito che componeva un computer in miniatura, utilizzando un unico blocco di semiconduttore e stampando il circuito sopra in metallo invece di creare il circuito da fili e componenti separati. Sei mesi dopo, Robert Noyce ha avuto l'idea di stendere il metallo sopra il semiconduttore e poi eliminare le parti non necessarie per creare il circuito integrato. Questi progressi hanno notevolmente ridotto le dimensioni dei circuiti dei computer e hanno reso possibile per la prima volta la loro produzione in serie.
Fabbricazione di chip di silicio
Oggi, i produttori di chip di silicio utilizzano la luce ultravioletta ad alta potenza per incidere i loro chip. Dopo aver posizionato una pellicola fotosensibile su un wafer di silicio, la luce filtra attraverso una maschera del circuito e marchia la pellicola nell'immagine del progetto del circuito. Il produttore taglia le aree non protette, quindi depone un altro strato di silicio e ripete il processo. Infine, un ultimo strato di pellicola identifica i circuiti metallici che ricoprono il chip, completando il circuito elettrico. I moderni chip di silicio possono contenere molti strati diversi con diverse proprietà elettriche, al fine di soddisfare le esigenze elettriche del design del computer.