EVOLUSI ARSITEKTUR KOMPUTER

EVOLUSI ARSITEKTUR KOMPUTER


Perkembangan Arsitektur Komputer
            Arsitektur komputer  dapat didefinisikan dan dikategorikan sebagai ilmu dan sekaligus seni mengenai cara interkoneksi komponen-komponen perangkat keras untuk dapat menciptakan sebuah komputer yang memenuhi kebutuhan fungsional, kinerja, dan target biayanya. Dalam bidang teknik komputer, arsitektur komputer adalah konsep perencanaan dan struktur pengoperasian dasar dari suatu sistem komputer. Arsitektur komputer ini merupakan rencana cetak-biru dan deskripsi fungsional dari kebutuhan bagian perangkat keras yang didesain (kecepatan proses dan sistem interkoneksinya). Dalam hal ini, implementasi perencanaan dari masing–masing bagian akan lebih difokuskan terutama, mengenai bagaimana CPU akan bekerja, dan mengenai cara pengaksesan data dan alamat dari dan ke memori cache, RAM, ROM, cakram keras, dll).
Di antara demikian banyak pemahaman tentang arsitektur, arsitektur dikenal juga sebagai suatu tradisi yang berkembang. Dari waktu ke waktu wajah arsitektur selalu mengalami perubahan. Hal-hal yang mempengaruhi perkembangan dan pengembangan arsitektur tidak hanya berupa keadaan eksternal, tetapi juga keadaan internal. Disini kita membahas mengenai evolusi arsitektur pada komputer. Arsitektur dari komputer sendiri merupakan suatu susunan atau rancangan dari komputer tersebut sehingga membentuk suatu kesatuan yang dinamakan komputer. Komputer sendiri berevolusi dengan cepat mulai dari generasi pertama hingga sekarang. Evolusi sendiri didasarkan pada fungsi atau kegunaanya dalam kehidupan. Evolusi pada komputer sendiri ada karena keinginan atau hal yang dibutuhkan manusia itu sendiri. Sekarang ini komputer sudah dapat melakaukan perintah yang sulit sekalipun tidak seperti dulu yang hanya bisa melakukan yang sederhana saja. Itulah yang dinamakan evolusi arsitektur yaitu perubahan bentuk juga fungsi dan kemampuannya.
Arsitektur komputer mempelajari atribut-atribut sistem komputer yang terkait dengan seorang programmer dan memiliki dampak langsung pada eksekusi logis sebuah program, contoh : set instruksi, jumlah bit yang digunakan untuk merepresentasikan bermacam-macam jenis data (misal bilangan, karakter), aritmatika yang digunakan, teknik pengalamatan, mekanisme I/O. Arsitektur komputer dapat bertahan bertahun-tahun tapi organisasi komputer dapat berubah sesuai dengan perkembangan teknologi. Berikut ini adalah beberapa contoh perkembangan arsitektur komputer :


Arsitektur von Neumann
Arsitektur von Neumann (atau Mesin Von Neumann) adalah arsitektur yang diciptakan oleh John von Neumann (1903-1957). Arsitektur ini digunakan oleh hampir semua komputer saat ini.
Arsitektur Von Neumann menggambarkan komputer dengan empat bagian utama: Unit Aritmatika dan Logis (ALU), unit kontrol, memori, dan alat masukan dan hasil (secara kolektif dinamakan I/O). Bagian ini dihubungkan oleh berkas kawat, “bus”
John Van Neumann seorang ahli matematika yang merupakan konsultan pembuatan ENIAC pada tahun 1945 mencoba memperbaiki kelemahan ENIAC dengan rancangan komputer barunya, bernama EDVAC
(Electronic Discrete Variable Computer) dengan konsep program tersimpan (stored program concept) 
Tahun 1946 komputer dengan stored-program concept dipublikasikasikan, yang
kemudian di kenal dengan Komputer IAS (Computer of Institute for Advanced Studies). Struktur
komputer IAS terlihat pada gambar 2.1. Komputer ini terdiri : 
• Memori Utama, untuk menyimpan data maupun instruksi. 
• Arithmetic Logic Unit (ALU), untuk mengolah data binner. 
• Control Unit, untuk melakukan interpretasi instruksi – instruksi di dalam memori sehingga adanya eksekusi instruksi tersebut. 
• I/O, untuk berinteraksi dengan lingkungan luar. 

CISC
Complex instruction-set computing atau Complex Instruction-Set Computer (CISC) “Kumpulan instruksi komputasi kompleks”) adalah sebuah arsitektur dari set instruksi dimana setiap instruksi akan menjalankan beberapa operasi tingkat rendah, seperti pengambilan dari memory, operasi aritmetika, dan penyimpanan ke dalam memory, semuanya sekaligus hanya di dalam sebuah instruksi. Karakteristik CISC dapat dikatakan bertolak-belakang dengan RISC.
Sebelum proses RISC didesain untuk pertama kalinya, banyak arsitek komputer mencoba menjembatani celah semantik”, yaitu bagaimana cara untuk membuat set-set instruksi untuk mempermudah pemrograman level tinggi dengan menyediakan instruksi “level tinggi” seperti pemanggilan procedure, proses pengulangan dan mode-mode pengalamatan kompleks sehingga struktur data dan akses array dapat dikombinasikan dengan sebuah instruksi. Karakteristik CISC yg “sarat informasi” ini memberikan keuntungan di mana ukuran program-program yang dihasilkan akan menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang. Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi jauh lebih hemat.
Memang setelah itu banyak desain yang memberikan hasil yang lebih baik dengan biaya yang lebih rendah, dan juga mengakibatkan pemrograman level tinggi menjadi lebih sederhana, tetapi pada kenyataannya tidaklah selalu demikian. Contohnya, arsitektur kompleks yang didesain dengan kurang baik (yang menggunakan kode-kode mikro untuk mengakses fungsi-fungsi hardware), akan berada pada situasi di mana akan lebih mudah untuk meningkatkan performansi dengan tidak menggunakan instruksi yang kompleks (seperti instruksi pemanggilan procedure), tetapi dengan menggunakan urutan instruksi yang sederhana.
Istilah RISC dan CISC saat ini kurang dikenal, setelah melihat perkembangan lebih lanjut dari desain dan implementasi baik CISC dan CISC. Implementasi CISC paralel untuk pertama kalinya, seperti 486 dari Intel, AMD, Cyrix, dan IBM telah mendukung setiap instruksi yang digunakan oleh prosesor-prosesor sebelumnya, meskipun efisiensi tertingginya hanya saat digunakan pada subset x86 yang sederhana (mirip dengan set instruksi RISC, tetapi tanpa batasan penyimpanan/pengambilan data dari RISC). Prosesor-prosesor modern x86 juga telah menyandikan dan membagi lebih banyak lagi instruksi-instruksi kompleks menjadi beberapa “operasi-mikro” internal yang lebih kecil sehingga dapat instruksi-instruksi tersebut dapat dilakukan secara paralel, sehingga mencapai performansi tinggi pada subset instruksi yang lebih besar.
Karakteristik CISC
·         Sarat informasi memberikan keuntungan di mana ukuran program-program yang dihasilkan akan menjadi relatif lebih kecil, dan penggunaan memory akan semakin berkurang. Karena CISC inilah biaya pembuatan komputer pada saat itu (tahun 1960) menjadi jauh lebih hemat
·         Dimaksudkan untuk meminimumkan jumlah perintah yang diperlukan untuk mengerjakan pekerjaan yang diberikan. (Jumlah perintah sedikit tetapi rumit) Konsep CISC menjadikan mesin mudah untuk diprogram dalam bahasa rakitan.

RISC
Reduced Instruction Set Computing (RISC) atau "Komputasi set instruksi yang disederhanakan" pertama kali digagas oleh John Cocke, peneliti dari IBM di Yorktown, New York pada tahun 1974 saat ia membuktikan bahwa sekitar 20% instruksi pada sebuah prosesor ternyata menangani sekitar 80% dari keseluruhan kerjanya. Komputer pertama yang menggunakan konsep RISC ini adalah IBM PC/XT pada era 1980-an. Istilah RISC sendiri pertama kali dipopulerkan oleh David Patterson, pengajar pada University of California di Berkely.
. Arsitektur ini digunakan pada komputer dengan kinerja tinggi, seperti komputer vektor.
Selain digunakan dalam komputer vektor, desain ini juga diimplementasikan pada prosesor komputer lain, seperti pada beberapa mikroprosesor Intel 960, Itanium (IA64) dari Intel Corporation, Alpha AXP dari DEC, R4x00 dari MIPS Corporation, PowerPC dan Arsitektur POWER dari International Business Machine. Selain itu, RISC juga umum dipakai pada Advanced RISC Machine (ARM) dan StrongARM (termasuk di antaranya adalah Intel XScale), SPARC dan UltraSPARC dari Sun Microsystems, serta PA-RISC dari Hewlett-Packard.
Karakteristik RISC
·         Siklus mesin ditentukan oleh waktu yang digunakan untuk mengambil dua buah operand dari register, melakukan operasi ALU, dan menyimpan hasil operasinya kedalam register, dengan demikian instruksi mesin RISC tidak boleh lebih kompleks dan harus dapat mengeksekusi secepat mikroinstruksi pada mesin-mesin CISC
·         Operasi berbentuk dari register-ke register yang hanya terdiri dari operasi load dan store yang mengakses memori . Fitur rancangan ini menyederhanakan set instruksi sehingga menyederhanakan pula unit control
·         Penggunaan mode pengalamatan sederhana, hampir sama dengan instruksi menggunakan pengalamatan register.
·         Penggunaan format-format instruksi sederhana, panjang instruksinya tetap dan disesuaikan dengan panjang word.


Blue Gene

Blue Gene adalah sebuah arsitektur komputer yang dirancang untuk menciptakan beberapa superkomputer generasi berikut, yang dirancang untuk mencapai kecepatan operasi petaflop (1 peta = 10 pangkat 15), dan pada 2005 telah mencapai kecepatan lebih dari 100 teraflop (1 tera = 10 pangkat 12). Blue Gene merupakan proyek antara Departemen Energi Amerika Serikat (yang membiayai projek ini), industri (terutama IBM), dan kalangan akademi. Ada lima projek Blue Gene dalam pengembangan saat ini, di antaranya adalah Blue Gene/L, Blue Gene/C, dan Blue Gene/P.

Berikut ini adalah Perkembangan Evolusi dari komputer, tiap evolusinya memiliki arsitektur tersendiri :
Komputer Generasi I (1940-1959)

ENIAC
Electronic Numerical Integrator and Calculator (ENIAC) merupakan generasi pertama komputer digital elektronik yang digunakan untuk kebutuhan umum. Pgamroposal ENIAC dirancang oada tahun 1942, dan mulai dibuat pada tahun 1943 oleh Dr. John W. Mauchly dan John Presper Eckert di Moore School of Electrical Engineering (University of Pennsylvania) dan baru selesai pada tahun 1946.
Komputer Komersial Pertama(UNIVAC)
Pada pertengahan tahun 1950 UNIVAC mengalami kemajuan dalam beberapa aspek pemrograman tingkat lanjut, sehingga merupakan komputer general purpose pertama yang didesain untuk menggunakan angka dan huruf dan menggunakan pita magnetik sebagai media input dan output-nya. Inilah yang dikatakan sebagai kelahiran industri komputer yang didominasi oleh perusahaan IBM dan Sperry. Komputer UNIVAC pertama kali digunakan untuk keperluan kalkulasi sensus di AS pada tahun 1951, dan dioperasikan sampai tahun 1963.

Komputer Generasi II (1959-1964)

UNIVAC III
Dibanding dengan tabung, teknologi transistor jauh lebih efisien sebagai switch dan dapat diperkecil ke skala mikroskopik. Pada tahun 2001 peniliti Intel telah memperkenalkan silikon paling kecil dan paling cepat di dunia, dengan ukuran 20 nanometer ata sebanding dengan sepermiliar meter, yang akan digunakan pada prosesor dengan kecepatan 20 GHz (Giga Hertz). Era ini juga menandakan permulaan munculnya minikomputer yang merupakan terbesar kedua dalam keluarga komputer. Harganya lebih murah dibanding dengan generasi pertama. Komputer DEC PDP-8 adalah minikomputer pertama yang dibuat tahun 1964 untuk pengolahan data komersial.

Komputer Generasi III (1964-1970) 

Ribuan transistor akhirnya berhasil digabung dalam satu bentuk yang sangat kecil. Secuil silicium yag mempunyai ukuran beberapa milimeter berhasil diciptakan, dan inilah yang disebut sebagai Integrated Circuit atau IC-Chip yang merupakan ciri khas komputer generasi ketiga. Cincin magnetic tersebut dapat di-magnetisasi secara satu arah ataupun berlawanan, dan akhirnya men-sinyalkan kondisi “ON” ataupun “OFF” yang kemudian diterjemahkan menjadi konsep 0 dan 1 dalam system bilangan biner yang sangat dibutuhkan oleh komputer. Contoh komputer generasi ketiga adalah Apple II, PC, dan NEC PC.Konsep semakin kecil dan semakin murah dari transistor, akhirnya memacu orang untuk terus melakukan pelbagai penelitian. Ribuan transistor akhirnya berhasil digabung dalam satu bentuk yang sangat kecil.

Komputer Generasi IV: PDP 11
Komputer generasi keempat dikarakteristikkan dengan memori semikonduktor yang cepat, ukuran kecil dan kebutuhan tenaga yang lebih kecil. Setelah IC, tujuan pengembanagan yaitu mengecilkan ukuran sirkuit dan komponen-komponen elektrik. Large Scale Integration (LSI) dapat memuat ratusan komponen dalam sebuah chip. Tahun 1980-an Very large Scale Integration (VLSI) memuat ribuan chip tunggal. Ultra-Large Scale Integration (ULSI) meningkatkan jumlah tersebut menjadi jutaan. Kemampuan utnuk memasang sedemikian banyak komponen dalam suatu keping berukuran setengah keping uang logam mendorong turunnya harga dan ukuran komputer. Hal tersebut tentunya meningkatkan daya kerja, efisiensi dan keandalan komputer.

Komputer Generasi V (1980-an-sekarang)

Akhir tahun 1980, IBM memutuskan untuk membangun sebuah komputer personal (PC) secara massal, yang pada tanggal 12 Agustus 1981 menjadi sebuah standar komputer PC, dan pada akhirnya hingga saat ini PC dikenal dengan nama standar IBM-PC. Prosesor yang digunakan adalah 8088/8086 yang menjadi standar komputer saat ini, menggunakan basis proses 16 bit persatuan waktu. Dengan lahirnya komputer generasi kelima ini, IBM bekerja sama dengan Microsoft untuk mengembangkan software di dalamnya. Hingga saat ini Microsoft mendominasi kebutuhan software di dunia PC. Pada generasi kelima ini, telah dilakukan pengembangan dengan apa yang dinamakan Josephson Junction, teknologi yang akan menggantikan chip yang mempunyai kemampuan memproses trilyunan operasi perdetik sementara teknologi chip hanya mampu memproses miliaran operasi perdetik. Komputer pada generasi ini akan dapat menerjemahkan bahasa manusia, manusia dapat langsung bercakap-cakap dengan komputer serta adanya penghematan energi komputer. Sifat luar biasa ini disebut sebagai “Artificial Intelligence”, selain itu juga berbasis Graphic User Interface (GUI), multimedia, dan multikomunikasi.





Komentar

Postingan populer dari blog ini

Memori (Eksternal, Internal, dan Pembagian Klarifikasi)

PIPELINING dan RISC