EVOLUSI ARSITEKTUR KOMPUTER
EVOLUSI ARSITEKTUR KOMPUTER
Perkembangan Arsitektur Komputer
Arsitektur komputer dapat
didefinisikan dan dikategorikan sebagai ilmu dan sekaligus seni mengenai cara
interkoneksi komponen-komponen perangkat keras untuk dapat menciptakan sebuah
komputer yang memenuhi kebutuhan fungsional, kinerja, dan target biayanya.
Dalam bidang teknik komputer, arsitektur komputer adalah konsep perencanaan dan
struktur pengoperasian dasar dari suatu sistem komputer. Arsitektur komputer
ini merupakan rencana cetak-biru dan deskripsi fungsional dari kebutuhan bagian
perangkat keras yang didesain (kecepatan proses dan sistem interkoneksinya).
Dalam hal ini, implementasi perencanaan dari masing–masing bagian akan lebih
difokuskan terutama, mengenai bagaimana CPU akan bekerja, dan mengenai cara
pengaksesan data dan alamat dari dan ke memori cache, RAM, ROM, cakram keras,
dll).
Di
antara demikian banyak pemahaman tentang arsitektur, arsitektur dikenal juga
sebagai suatu tradisi yang berkembang. Dari waktu ke waktu wajah arsitektur
selalu mengalami perubahan. Hal-hal yang mempengaruhi perkembangan dan
pengembangan arsitektur tidak hanya berupa keadaan eksternal, tetapi juga
keadaan internal. Disini kita membahas mengenai evolusi arsitektur pada
komputer. Arsitektur dari komputer sendiri merupakan suatu susunan atau
rancangan dari komputer tersebut sehingga membentuk suatu kesatuan yang
dinamakan komputer. Komputer sendiri berevolusi dengan cepat mulai dari
generasi pertama hingga sekarang. Evolusi sendiri didasarkan pada fungsi atau
kegunaanya dalam kehidupan. Evolusi pada komputer sendiri ada karena keinginan
atau hal yang dibutuhkan manusia itu sendiri. Sekarang ini komputer sudah dapat
melakaukan perintah yang sulit sekalipun tidak seperti dulu yang hanya bisa
melakukan yang sederhana saja. Itulah yang dinamakan evolusi arsitektur yaitu
perubahan bentuk juga fungsi dan kemampuannya.
Arsitektur komputer
mempelajari atribut-atribut sistem komputer yang terkait dengan seorang
programmer dan memiliki dampak langsung pada eksekusi logis sebuah program,
contoh : set instruksi, jumlah bit yang digunakan untuk merepresentasikan
bermacam-macam jenis data (misal bilangan, karakter), aritmatika yang
digunakan, teknik pengalamatan, mekanisme I/O. Arsitektur komputer dapat
bertahan bertahun-tahun tapi organisasi komputer dapat berubah sesuai dengan
perkembangan teknologi. Berikut ini adalah beberapa contoh perkembangan
arsitektur komputer :
Arsitektur von Neumann
Arsitektur von Neumann (atau Mesin
Von Neumann) adalah arsitektur yang diciptakan oleh John von Neumann (1903-1957). Arsitektur ini digunakan
oleh hampir semua komputer saat ini.
Arsitektur
Von Neumann menggambarkan komputer dengan empat bagian utama: Unit Aritmatika
dan Logis (ALU), unit kontrol, memori, dan alat masukan dan hasil (secara
kolektif dinamakan I/O). Bagian ini dihubungkan oleh berkas kawat, “bus”
John
Van Neumann seorang ahli matematika yang merupakan konsultan pembuatan ENIAC
pada tahun 1945 mencoba memperbaiki kelemahan ENIAC dengan rancangan komputer
barunya, bernama EDVAC
(Electronic
Discrete Variable Computer) dengan konsep program tersimpan (stored program
concept)
Tahun
1946 komputer dengan stored-program concept dipublikasikasikan, yang
kemudian
di kenal dengan Komputer IAS (Computer of Institute for Advanced Studies).
Struktur
komputer
IAS terlihat pada gambar 2.1. Komputer ini terdiri :
•
Memori Utama, untuk menyimpan data maupun instruksi.
•
Arithmetic Logic Unit (ALU), untuk mengolah data binner.
•
Control Unit, untuk melakukan interpretasi instruksi – instruksi di dalam
memori sehingga adanya eksekusi instruksi tersebut.
•
I/O, untuk berinteraksi dengan lingkungan luar.
CISC
Complex
instruction-set computing atau Complex Instruction-Set Computer (CISC)
“Kumpulan instruksi komputasi kompleks”) adalah sebuah arsitektur dari set
instruksi dimana setiap instruksi akan menjalankan beberapa operasi tingkat
rendah, seperti pengambilan dari memory, operasi aritmetika, dan penyimpanan ke
dalam memory, semuanya sekaligus hanya di dalam sebuah instruksi. Karakteristik
CISC dapat dikatakan bertolak-belakang dengan RISC.
Sebelum
proses RISC didesain untuk pertama kalinya, banyak arsitek komputer mencoba
menjembatani celah semantik”, yaitu bagaimana cara untuk membuat set-set
instruksi untuk mempermudah pemrograman level tinggi dengan menyediakan
instruksi “level tinggi” seperti pemanggilan procedure, proses pengulangan dan
mode-mode pengalamatan kompleks sehingga struktur data dan akses array dapat
dikombinasikan dengan sebuah instruksi. Karakteristik CISC yg “sarat informasi”
ini memberikan keuntungan di mana ukuran program-program yang dihasilkan akan
menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang.
Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi
jauh lebih hemat.
Memang
setelah itu banyak desain yang memberikan hasil yang lebih baik dengan biaya
yang lebih rendah, dan juga mengakibatkan pemrograman level tinggi menjadi
lebih sederhana, tetapi pada kenyataannya tidaklah selalu demikian. Contohnya,
arsitektur kompleks yang didesain dengan kurang baik (yang menggunakan
kode-kode mikro untuk mengakses fungsi-fungsi hardware), akan berada pada
situasi di mana akan lebih mudah untuk meningkatkan performansi dengan tidak
menggunakan instruksi yang kompleks (seperti instruksi pemanggilan procedure),
tetapi dengan menggunakan urutan instruksi yang sederhana.
Istilah
RISC dan CISC saat ini kurang dikenal, setelah melihat perkembangan lebih
lanjut dari desain dan implementasi baik CISC dan CISC. Implementasi CISC
paralel untuk pertama kalinya, seperti 486 dari Intel, AMD, Cyrix, dan IBM
telah mendukung setiap instruksi yang digunakan oleh prosesor-prosesor
sebelumnya, meskipun efisiensi tertingginya hanya saat digunakan pada subset
x86 yang sederhana (mirip dengan set instruksi RISC, tetapi tanpa batasan
penyimpanan/pengambilan data dari RISC). Prosesor-prosesor modern x86 juga
telah menyandikan dan membagi lebih banyak lagi instruksi-instruksi kompleks
menjadi beberapa “operasi-mikro” internal yang lebih kecil sehingga dapat
instruksi-instruksi tersebut dapat dilakukan secara paralel, sehingga mencapai
performansi tinggi pada subset instruksi yang lebih besar.
Karakteristik CISC
· Sarat
informasi memberikan keuntungan di mana ukuran program-program yang dihasilkan
akan menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang.
Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi
jauh lebih hemat
· Dimaksudkan
untuk meminimumkan jumlah perintah yang diperlukan untuk mengerjakan pekerjaan
yang diberikan. (Jumlah perintah sedikit tetapi rumit) Konsep CISC menjadikan
mesin mudah untuk diprogram dalam bahasa rakitan.
RISC
Reduced Instruction Set
Computing (RISC)
atau "Komputasi set instruksi yang disederhanakan" pertama kali digagas
oleh John Cocke, peneliti dari IBM di Yorktown, New York pada tahun 1974 saat
ia membuktikan bahwa sekitar 20% instruksi pada sebuah prosesor ternyata
menangani sekitar 80% dari keseluruhan kerjanya. Komputer pertama yang
menggunakan konsep RISC ini adalah IBM PC/XT pada era 1980-an. Istilah RISC
sendiri pertama kali dipopulerkan oleh David Patterson, pengajar pada
University of California di Berkely.
.
Arsitektur ini digunakan pada komputer dengan kinerja tinggi, seperti komputer
vektor.
Selain
digunakan dalam komputer vektor, desain ini juga diimplementasikan pada
prosesor komputer lain, seperti pada beberapa mikroprosesor Intel 960, Itanium
(IA64) dari Intel Corporation, Alpha AXP dari DEC, R4x00 dari MIPS Corporation,
PowerPC dan Arsitektur POWER dari International Business Machine. Selain itu,
RISC juga umum dipakai pada Advanced RISC Machine (ARM) dan StrongARM (termasuk
di antaranya adalah Intel XScale), SPARC dan UltraSPARC dari Sun Microsystems,
serta PA-RISC dari Hewlett-Packard.
Karakteristik RISC
· Siklus
mesin ditentukan oleh waktu yang digunakan untuk mengambil dua buah operand
dari register, melakukan operasi ALU, dan menyimpan hasil operasinya kedalam
register, dengan demikian instruksi mesin RISC tidak boleh lebih kompleks dan
harus dapat mengeksekusi secepat mikroinstruksi pada mesin-mesin CISC
· Operasi
berbentuk dari register-ke register yang hanya terdiri dari operasi load dan
store yang mengakses memori . Fitur rancangan ini menyederhanakan set instruksi
sehingga menyederhanakan pula unit control
· Penggunaan
mode pengalamatan sederhana, hampir sama dengan instruksi menggunakan
pengalamatan register.
· Penggunaan
format-format instruksi sederhana, panjang instruksinya tetap dan disesuaikan
dengan panjang word.
Blue Gene
Blue Gene adalah sebuah arsitektur komputer yang
dirancang untuk menciptakan beberapa superkomputer generasi berikut, yang dirancang untuk
mencapai kecepatan operasi petaflop (1 peta = 10 pangkat 15),
dan pada 2005 telah mencapai kecepatan lebih dari 100
teraflop (1 tera = 10 pangkat 12). Blue Gene merupakan proyek antara Departemen Energi Amerika
Serikat (yang membiayai projek ini), industri (terutama IBM),
dan kalangan akademi. Ada lima projek Blue Gene dalam
pengembangan saat ini, di antaranya adalah Blue Gene/L, Blue Gene/C, dan Blue
Gene/P.
Berikut ini adalah
Perkembangan Evolusi dari komputer, tiap evolusinya memiliki arsitektur
tersendiri :
Komputer
Generasi I (1940-1959)
ENIAC
Electronic
Numerical Integrator and Calculator (ENIAC) merupakan generasi pertama komputer
digital elektronik yang digunakan untuk kebutuhan umum. Pgamroposal ENIAC
dirancang oada tahun 1942, dan mulai dibuat pada tahun 1943 oleh Dr. John W.
Mauchly dan John Presper Eckert di Moore School of Electrical Engineering
(University of Pennsylvania) dan baru selesai pada tahun 1946.
Komputer
Komersial Pertama(UNIVAC)
Pada pertengahan tahun 1950
UNIVAC mengalami kemajuan dalam beberapa aspek pemrograman tingkat lanjut,
sehingga merupakan komputer general purpose pertama yang didesain untuk
menggunakan angka dan huruf dan menggunakan pita magnetik sebagai media input
dan output-nya. Inilah yang dikatakan sebagai kelahiran industri komputer yang
didominasi oleh perusahaan IBM dan Sperry. Komputer UNIVAC pertama kali
digunakan untuk keperluan kalkulasi sensus di AS pada tahun 1951, dan
dioperasikan sampai tahun 1963.
Komputer
Generasi II (1959-1964)
UNIVAC
III
Dibanding
dengan tabung, teknologi transistor jauh lebih efisien sebagai switch dan dapat
diperkecil ke skala mikroskopik. Pada tahun 2001 peniliti Intel telah
memperkenalkan silikon paling kecil dan paling cepat di dunia, dengan ukuran 20
nanometer ata sebanding dengan sepermiliar meter, yang akan digunakan pada
prosesor dengan kecepatan 20 GHz (Giga Hertz). Era ini juga menandakan
permulaan munculnya minikomputer yang merupakan terbesar kedua dalam keluarga
komputer. Harganya lebih murah dibanding dengan generasi pertama. Komputer DEC
PDP-8 adalah minikomputer pertama yang dibuat tahun 1964 untuk pengolahan data
komersial.
Komputer
Generasi III (1964-1970)
Ribuan
transistor akhirnya berhasil digabung dalam satu bentuk yang sangat kecil.
Secuil silicium yag mempunyai ukuran beberapa milimeter berhasil diciptakan,
dan inilah yang disebut sebagai Integrated Circuit atau IC-Chip yang merupakan
ciri khas komputer generasi ketiga. Cincin magnetic tersebut dapat
di-magnetisasi secara satu arah ataupun berlawanan, dan akhirnya men-sinyalkan
kondisi “ON” ataupun “OFF” yang kemudian diterjemahkan menjadi konsep 0 dan 1
dalam system bilangan biner yang sangat dibutuhkan oleh komputer. Contoh
komputer generasi ketiga adalah Apple II, PC, dan NEC PC.Konsep semakin kecil
dan semakin murah dari transistor, akhirnya memacu orang untuk terus melakukan
pelbagai penelitian. Ribuan transistor akhirnya berhasil digabung dalam satu
bentuk yang sangat kecil.
Komputer
Generasi IV: PDP 11
Komputer
generasi keempat dikarakteristikkan dengan memori semikonduktor yang cepat,
ukuran kecil dan kebutuhan tenaga yang lebih kecil. Setelah IC, tujuan
pengembanagan yaitu mengecilkan ukuran sirkuit dan komponen-komponen elektrik.
Large Scale Integration (LSI) dapat memuat ratusan komponen dalam sebuah chip.
Tahun 1980-an Very large Scale Integration (VLSI) memuat ribuan chip tunggal.
Ultra-Large Scale Integration (ULSI) meningkatkan jumlah tersebut menjadi
jutaan. Kemampuan utnuk memasang sedemikian banyak komponen dalam suatu keping
berukuran setengah keping uang logam mendorong turunnya harga dan ukuran
komputer. Hal tersebut tentunya meningkatkan daya kerja, efisiensi dan
keandalan komputer.
Komputer
Generasi V (1980-an-sekarang)
Akhir
tahun 1980, IBM memutuskan untuk membangun sebuah komputer personal (PC) secara
massal, yang pada tanggal 12 Agustus 1981 menjadi sebuah standar komputer PC,
dan pada akhirnya hingga saat ini PC dikenal dengan nama standar IBM-PC.
Prosesor yang digunakan adalah 8088/8086 yang menjadi standar komputer saat
ini, menggunakan basis proses 16 bit persatuan waktu. Dengan lahirnya komputer
generasi kelima ini, IBM bekerja sama dengan Microsoft untuk mengembangkan software
di dalamnya. Hingga saat ini Microsoft mendominasi kebutuhan software di dunia
PC. Pada generasi kelima ini, telah dilakukan pengembangan dengan apa yang
dinamakan Josephson Junction, teknologi yang akan menggantikan chip yang
mempunyai kemampuan memproses trilyunan operasi perdetik sementara teknologi
chip hanya mampu memproses miliaran operasi perdetik. Komputer pada generasi
ini akan dapat menerjemahkan bahasa manusia, manusia dapat langsung
bercakap-cakap dengan komputer serta adanya penghematan energi komputer. Sifat
luar biasa ini disebut sebagai “Artificial Intelligence”, selain itu juga
berbasis Graphic User Interface (GUI), multimedia, dan multikomunikasi.
Komentar
Posting Komentar