Telset.id – Model kepintaran buatan (AI) skala besar nan memerlukan komputasi intensif mungkin bakal memberikan hasil nan semakin menurun dibandingkan model nan lebih kecil. Temuan ini berasal dari studi terbaru Massachusetts Institute of Technology (MIT) nan memetakan norma penskalaan terhadap peningkatan efisiensi model.
Peneliti menemukan bahwa semakin susah untuk mendapatkan lompatan performa dari model raksasa, sementara peningkatan efisiensi justru dapat membikin model nan melangkah pada perangkat keras lebih sederhana semakin bisa dalam dasawarsa mendatang. “Dalam lima hingga 10 tahun ke depan, beragam perihal sangat mungkin mulai menyempit,” kata Neil Thompson, intelektual komputer dan guru besar di MIT nan terlibat dalam studi tersebut.
Lompatan efisiensi, seperti nan terlihat pada model DeepSeek dengan biaya sangat rendah pada Januari lalu, telah menjadi pengingat realitas bagi industri AI nan terbiasa menghabiskan sumber daya komputasi dalam jumlah masif. Saat ini, model terdepan dari perusahaan seperti OpenAI memang jauh lebih unggul daripada model nan dilatih dengan sebagian mini komputasi dari laboratorium akademik.
Prediksi tim MIT mungkin tidak bertindak jika, misalnya, metode training baru seperti reinforcement learning menghasilkan temuan mengejutkan. Namun, mereka menyarankan bahwa perusahaan AI besar bakal mempunyai kelebihan nan lebih mini di masa depan.
Efisiensi Algorithm vs Skala Komputasi
Hans Gundlach, intelektual peneliti di MIT nan memimpin analisis, tertarik pada masalah ini lantaran sifat model mutakhir nan susah dijalankan. Bersama Thompson dan Jayson Lynch, intelektual peneliti lain di MIT, dia memetakan performa masa depan model terdepan dibandingkan dengan nan dibangun dengan sarana komputasi lebih sederhana.
Gundlach mengatakan tren nan diprediksi sangat terlihat untuk model penalaran nan sekarang sedang tren, nan lebih berjuntai pada komputasi tambahan selama inferensi. Thompson menambahkan bahwa hasil ini menunjukkan nilai menyempurnakan algoritma serta meningkatkan skala komputasi.
“Jika Anda menghabiskan banyak duit untuk melatih model-model ini, maka Anda semestinya juga mengalokasikan sebagiannya untuk mengembangkan algoritma nan lebih efisien, lantaran perihal itu dapat sangat berpengaruh,” tegas Thompson.
Infrastruktur AI dan Pertanyaan Keberlanjutan
Studi ini menjadi semakin relevan mengingat booming prasarana AI saat ini nan menunjukkan sedikit tanda melambat. OpenAI dan perusahaan teknologi AS lainnya telah menandatangani kesepakatan senilai ratusan miliar dolar untuk membangun prasarana AI di Amerika Serikat.
“Dunia memerlukan lebih banyak komputasi,” proklamasi presiden OpenAI, Greg Brockman, pekan ini saat mengumumkan kemitraan antara OpenAI dan Broadcom untuk chip AI khusus. Namun, semakin banyak master nan mempertanyakan kepantasan kesepakatan ini.
Sekitar 60 persen biaya pembangunan pusat info dialokasikan untuk GPU, nan condong sigap mengalami depresiasi. Kemitraan antara pemain utama juga tampak melingkar dan tidak transparan. Jamie Dimon, CEO JP Morgan, menjadi nama besar terbaru di bumi finansial nan mengeluarkan peringatan, mengatakan kepada BBC pekan lampau bahwa “tingkat ketidakpastian semestinya lebih tinggi dalam pikiran kebanyakan orang.”
Demam prasarana AI tidak sepenuhnya tentang membangun model nan lebih mampu. OpenAI secara efektif bertaruh bahwa permintaan untuk perangkat AI generatif baru bakal tumbuh secara eksponensial. Perusahaan juga mungkin berupaya mengurangi ketergantungan pada Microsoft dan Nvidia serta mengubah valuasi massive $500 miliar menjadi prasarana nan dapat mereka kreasi dan kustomisasi.
Meski demikian, bakal lebih bijak bagi industri untuk menggunakan kajian seperti nan diperkenalkan dari MIT untuk mengeksplorasi gimana algoritma dan perangkat keras dapat berevolusi dalam beberapa tahun ke depan. Pembangunan boom nan sekarang menopang sebagian besar ekonomi AS juga dapat mempunyai akibat bagi penemuan Amerika.
Dengan berinvestasi sangat besar dalam GPU dan chip lain nan dikhususkan untuk deep learning, perusahaan AI mungkin melewatkan kesempatan baru nan bisa datang dari mengeksplorasi ide-ide dari pinggiran akademisi, seperti pengganti untuk deep learning, kreasi chip novel, dan apalagi pendekatan seperti komputasi kuantum. Bagaimanapun, dari sanalah terobosan AI hari ini berasal.
Perkembangan ini sejalan dengan tren efisiensi komputasi nan sedang digalakkan beragam pihak, termasuk penemuan chip hybrid seperti nan dikembangkan Fudan University dengan chip hybrid 2D-silicon pertamanya di dunia. Sementara itu, perusahaan seperti Apple terus mendorong efisiensi perangkat dengan prosesor seperti nan digunakan dalam MacBook Air M4 nan menawarkan performa tinggi dengan konsumsi daya optimal.
Integrasi AI nan semakin pandai juga terlihat dalam pengembangan sistem operasi, seperti ColorOS 16 nan baru saja dirilis dengan fitur AI pandai untuk pengalaman pengguna nan lebih baik. Pendekatan efisiensi ini mencerminkan perlunya keseimbangan antara keahlian komputasi dan konsumsi sumber daya, sebagaimana prediksi studi MIT.
Sebagai komparasi dengan bagian lain nan juga memerlukan komputasi intensif, penelitian astronomi seperti studi tentang Bintik Merah Besar Jupiter nan menyusut secara misterius menunjukkan gimana kajian info skala besar tetap dapat dilakukan dengan pendekatan komputasi nan efisien.