Beranda News ‘Kami masih di awal perjalanan AI’

‘Kami masih di awal perjalanan AI’

4
0

Minat dalam jaringan saraf muncul kembali pada awal 2000 -an, didorong oleh kemajuan dalam perangkat keras dan akses ke set data besar (file) | Kredit Foto: Reuters

Kecerdasan buatan (AI) telah membuat langkah luar biasa dalam beberapa tahun terakhir, namun menurut ahli pembelajaran mesin Shreyas Subramanian, masih banyak yang harus diungkap.

Untuk memahami evolusi AI dan ke mana arahnya, saya terhubung dengan Subramanian, seorang ilmuwan data utama di AWS, di Antarmuka Podcast, untuk mengumpulkan wawasannya tentang pengembangan jaringan saraf yang dalam, kebangkitan transformator, dan lintasan AI yang lebih luas.

Menelusuri akar jaringan saraf ke konseptualisasi awal neuron buatan, Subramanian menjelaskan karya Frank Rosenblatt pada 1950 -an dengan model Perceptron.

“Perceptron ini adalah unit komputasi pengenalan pola sederhana,” jelasnya. “Anehnya, mereka masih digunakan sampai sekarang di lapisan padat dan adaptor untuk membuat model bahasa besar lebih efisien.”

Teknologi dasar ini meletakkan dasar bagi jaringan saraf, yang bertujuan untuk menjadi aproksimator fungsi universal yang dapat memetakan input apa pun ke output apa pun.

Munculnya Jaringan Saraf

Minat dalam jaringan saraf muncul kembali pada awal 2000 -an, didorong oleh kemajuan dalam perangkat keras dan akses ke set data besar -besaran. Subramanian menyoroti peran penting Alexnet, yang mempopulerkan jaringan saraf konvolusional (CNNs) yang mendalam dengan memenangkan kompetisi Imagenet. “Alexnet menetapkan garis dasar dengan menumpuk perceptrons, memperkenalkan jaringan saraf konvolusi yang mendalam, dan memanfaatkan kemajuan GPU,” katanya.

CNNS mengubah pengenalan gambar dengan menggunakan operasi konvolusi, mirip dengan menggeser filter plastik berwarna di atas gambar untuk menyoroti fitur -fitur tertentu, secara dramatis meningkatkan tugas klasifikasi dan membuka jalan bagi aplikasi AI modern.

Sementara CNN merevolusi pemrosesan gambar, mereka tidak memiliki kemampuan memori, yang dibahas jaringan saraf berulang (RNNs). “Komponen yang hilang dari literatur CNN awal adalah kemampuan untuk membentuk memori,” kata Subramanian. RNN memperkenalkan mekanisme untuk menyimpan informasi dari waktu ke waktu, meskipun mereka berjuang dengan masalah seperti masalah gradien menghilang.

Untuk mengatasi keterbatasan ini, arsitektur seperti jaringan memori jangka pendek (LSTM) dan unit berulang yang terjaga keamanannya (GRUS) memungkinkan modul memori khusus, yang memungkinkan AI untuk menangani ketergantungan temporal yang kompleks secara lebih efektif.

Terinspirasi oleh otak manusia

Pengembangan AI sering menarik inspirasi dari ilmu saraf, meskipun Subramanian mengakui kesenjangan antara kecerdasan buatan dan biologis. “Kami masih tidak cukup mengerti tentang otak untuk meniru efisiensinya,” akunya. Kemampuan otak manusia untuk memproses input sensorik secara paralel, beradaptasi melalui neuroplastisitas, dan melakukan perhitungan hemat energi tetap tak tertandingi.

Meskipun model AI memiliki miliaran parameter, mereka masih gagal dari kemampuan otak. “Model bahasa besar saat ini melebihi jumlah neuron di otak manusia, namun mereka terbatas dibandingkan dengan efisiensi dan fleksibilitas otak,” kata Subramanian.

Satu tonggak dalam perjalanan AI adalah pengembangan Alphago oleh DeepMind, yang menunjukkan kekuatan pembelajaran penguatan dan jaringan saraf yang dalam. “Ini melampaui kinerja manusia dalam permainan go, mengandalkan strategi pembelajaran dan penguatan yang mendalam untuk menangani pengambilan keputusan yang kompleks,” Subramanian merenung. Keberhasilan Alphago menyoroti potensi AI dalam penalaran strategis dan perencanaan jangka panjang, mempengaruhi kemajuan di luar permainan.

Revolusi transformator

Pada 2017, AI mengambil lompatan ke depan dengan diperkenalkannya arsitektur transformator, terutama dalam pemrosesan bahasa alami. Kertas seminal, ‘perhatian adalah yang Anda butuhkan’, memperkenalkan mekanisme perhatian diri yang mengungguli model berbasis RNN sebelumnya. “Transformers menghilangkan bottleneck berurutan dan menangani urutan panjang secara efisien,” jelas Subramanian.

Arsitektur ini mengarah pada model seperti Bert dan GPT, yang memicu munculnya model bahasa besar dan AI generatif. Kemampuan beradaptasi transformator menjadikannya dasar untuk aplikasi yang beragam, dari pembuatan teks hingga pemrosesan gambar dan audio.

Industri AI dan lanskap kompetitif

Membahas lanskap kompetitif, Subramanian mencatat bagaimana fokus strategis Openai pada model bahasa penskalaan memberikan keunggulan atas raksasa teknologi seperti Google. “Openai berinvestasi besar -besaran dalam menghitung sumber daya dan kurasi data pada saat orang lain ragu -ragu,” katanya. Komitmen awal ini terbayar dengan keberhasilan GPT-2 dan GPT-3, yang mengarah pada adopsi yang meluas dan keberhasilan komersial.

Sementara itu, perusahaan seperti Google dan Amazon mengejar berbagai strategi, menyeimbangkan penelitian dengan prioritas bisnis. “Fokus Google lebih pada proyek Moonshot, sementara Amazon menekankan memberikan beragam solusi AI kepada pelanggan,” kata Subramanian.

Sebuah perjalanan yang masih berlangsung

Evolusi AI dari perseptron sederhana hingga model bahasa transformatif mencerminkan inovasi selama beberapa dekade, penelitian interdisipliner, dan kemajuan teknologi. Namun, seperti yang ditekankan oleh Subramanian, “Kami masih di awal perjalanan ini. Semakin banyak kita belajar tentang AI dan Neuroscience, semakin banyak kita menyadari betapa banyak yang harus diungkapkan. ”

Masa depan AI menjanjikan perkembangan yang menarik, didorong oleh eksplorasi berkelanjutan dari kecerdasan buatan dan biologis. Seiring kemajuan lapangan, memahami sejarah AI dan prinsip -prinsip dasar akan sangat penting dalam membentuk potensinya dan mengatasi tantangan di masa depan.

(Dengarkan diskusi lengkap dengan Shreyas Subramanian di podcast antarmuka atau Tonton video YouTube untuk wawasan lebih lanjut.)

https://www.youtube.com/watch?v=pkj-1krn45y

Sumber