Berbeda dari model-model seperti ChatGPT tim peneliti China .mengembangkan sebuah sistem kecerdasan buatan yang meniru kerja otak. Selain itu membuka jalan baru bagi komputasi dan perangkat keras generasi berikutnya yang hemat energi.Para ilmuwan dari Institut Automasi (Institute of Automation) di bawah naungan Akademi Ilmu Pengetahuan China memperkenalkan “SpikingBrain-1.0”. Sebuah model berskala besar yang sepenuhnya dilatih dan diinferensi menggunakan komputasi GPU buatan dalam negeri China.
Berbeda dengan sistem AI generatif arus utama (mainstream) yang bergantung pada arsitektur. Transformer yang membutuhkan sumber daya besar, dengan kecerdasan berkembang seiring dengan semakin besarnya. Berbeda dengan sistem AI generatif arus utama (mainstream) yang bergantung pada arsitektur.Transformer membutuhkan sumber daya besar, dengan kecerdasan berkembang. Semakin besarnya jaringan, anggaran komputasi, memungkinkan kecerdasan muncul dari neuron spiking.Dengan hanya menggunakan sekitar 2 persen dari data prapelatihan yang dibutuhkan oleh model besar mainstream. Model ini mencapai kinerja setara dengan model sumber terbuka pada tantangan pemahaman bahasa dan penalaran, kata tim peneliti.
BACA JUGA:Robot Canggih Milik China Pecahkan Rekor Dunia, Bisa Lari Jarak 100 Meter
Sebagaimana kita ketahui, Transformer selama ini. Menjadi tulang punggung model bahasa modern karena kemampuannya memahami konteks panjang dan menyajikan hasil yang akurat. Namun, arsitektur tersebut memiliki kelemahan mendasar ketika berhadapan dengan konteks berukuran raksasa. Untuk menghasilkan token pertama.Transformer harus memproses atensi penuh terhadap keseluruhan teks yang tersedia. Proses ini tentu saja menghabiskan banyak waktu .Dan sumber daya komputasi, sehingga membuat performa kurang efisien .Untuk aplikasi berskala besar yang menuntut kecepatan tinggi.
Peningkatan kecepatan hingga 26,5 kali lipat. Ini bukan hanya sebuah angka teknis, melainkan juga sinyal bahwa pendekatan baru dalam desain arsitektur AI dapat menghadirkan lompatan besar.