Meta memiliki merilis koleksi baru model AILlama 4, dalam keluarga Llama – pada hari Sabtu, tidak kurang.
Ada empat model baru secara total: Llama 4 Scout, Llama 4 Maverick, dan Llama 4 Behemoth. Semua dilatih pada “sejumlah besar teks, gambar, dan data video yang tidak berlabel” untuk memberi mereka “pemahaman visual yang luas,” kata Meta.
Keberhasilan model terbuka dari laboratorium AI China Deepseek, yang berkinerja setara atau lebih baik dari model Llama andalan Meta sebelumnya, dilaporkan menendang pengembangan Llama menjadi overdrive. Meta dikatakan telah mengacak -acak ruang perang untuk menguraikan bagaimana Deepseek menurunkan biaya menjalankan dan menggunakan model seperti R1 dan V3.
Scout dan Maverick tersedia secara terbuka Llama.com Dan dari mitra Meta, termasuk platform AI Dev memeluk wajah, sementara Behemoth masih dalam pelatihan. Meta mengatakan bahwa Meta AI, asistennya yang bertenaga AI di seluruh aplikasi termasuk WhatsApp, Messenger, dan Instagram, telah diperbarui untuk menggunakan Llama 4 di 40 negara. Fitur multimodal terbatas pada AS dalam bahasa Inggris untuk saat ini.
Beberapa pengembang dapat mempermasalahkan lisensi LLAMA 4.
Pengguna dan perusahaan “berdomisili” atau dengan “tempat bisnis utama” di UE dilarang menggunakan atau mendistribusikan modelKemungkinan hasil dari persyaratan tata kelola yang diberlakukan oleh AI dan undang -undang privasi data di kawasan itu. (Di masa lalu, Meta telah mengecam undang -undang ini sebagai terlalu memberatkan.) Selain itu, seperti halnya rilis LLAMA sebelumnya, perusahaan dengan lebih dari 700 juta pengguna aktif bulanan harus meminta lisensi khusus dari Meta, yang dapat diberikan meta atau menolak atas kebijakannya sendiri.
“Model Llama 4 ini menandai awal era baru untuk ekosistem Llama,” Meta menulis dalam posting blog. “Ini hanya permulaan untuk koleksi Llama 4.”
Meta mengatakan bahwa Llama 4 adalah kohort pertama dari model untuk menggunakan arsitektur campuran ahli (MOE), yang lebih efisien secara komputasi untuk pelatihan dan menjawab pertanyaan. Arsitektur MOE pada dasarnya memecah tugas pemrosesan data menjadi subtugas dan kemudian mendelegasikannya ke model “ahli” yang lebih kecil dan khusus.
Maverick, misalnya, memiliki 400 miliar total parameter, tetapi hanya 17 miliar aktif Parameter di 128 “Pakar.” (Parameter secara kasar sesuai dengan keterampilan pemecahan masalah model.) Scout memiliki 17 miliar parameter aktif, 16 ahli, dan 109 miliar total parameter.
Menurut pengujian internal Meta, Maverick, yang menurut perusahaan adalah yang terbaik untuk kasus “asisten umum dan obrolan” seperti penulisan kreatif, melebihi model seperti GPT-4O Openai dan Google Gemini 2.0 pada tolok ukur tertentu, penalaran, multibahasa, konteks panjang, dan gambar. Namun, Maverick tidak cukup mengukur hingga model terbaru yang lebih mampu seperti Google Gemini 2.5 Pro, Anthropic’s Claude 3.7 Sonnet, dan Openai’s GPT-4.5.
Kekuatan Scout terletak pada tugas -tugas seperti peringkasan dokumen dan penalaran atas basis kode besar. Unik, ia memiliki jendela konteks yang sangat besar: 10 juta token. (“Token” mewakili bit teks mentah – misalnya kata “fantastis” dibagi menjadi “fan,” “tas” dan “tic.”) Dalam bahasa Inggris yang sederhana, pengintai dapat mengambil gambar dan hingga jutaan kata, memungkinkannya untuk memproses dan bekerja dengan dokumen yang sangat panjang.
Scout dapat berjalan pada GPU NVIDIA H100 tunggal, sementara Maverick membutuhkan sistem NVIDIA H100 DGX atau setara, menurut perhitungan Meta.
Raksasa Meta yang belum dirilis akan membutuhkan perangkat keras yang lebih besar. Menurut perusahaan, Behemoth memiliki 288 miliar parameter aktif, 16 ahli, dan hampir dua triliun total parameter. Benchmarking internal Meta telah mengungguli GPT-4.5, Claude 3.7 Sonnet, dan Gemini 2.0 Pro (tetapi tidak 2.5 Pro) pada beberapa evaluasi yang mengukur keterampilan STEM seperti pemecahan masalah matematika.
Sebagai catatan, tidak ada model Llama 4 yang merupakan model “penalaran” yang tepat di sepanjang baris Openai O1 dan O3-Mini. Model alasan-Fact memeriksa jawaban mereka dan umumnya menanggapi pertanyaan secara lebih andal, tetapi sebagai akibatnya memakan waktu lebih lama dari model tradisional, tidak masuk akal “untuk memberikan jawaban.

Menariknya, Meta mengatakan bahwa mereka menyesuaikan semua model Llama 4 untuk menolak menjawab pertanyaan “kontroversial” lebih jarang. Menurut perusahaan, Llama 4 menanggapi topik politik dan sosial yang “diperdebatkan” yang tidak akan dilakukan oleh model model Llama sebelumnya. Selain itu, perusahaan mengatakan, Llama 4 “secara dramatis lebih seimbang” yang diminta dengan flat-out tidak akan menghibur.
“(Y) ou dapat mengandalkan (Lllama 4) untuk memberikan tanggapan yang membantu dan faktual tanpa penilaian,” kata juru bicara meta kepada TechCrunch. “(W) terus membuat llama lebih responsif sehingga menjawab lebih banyak pertanyaan, dapat menanggapi berbagai sudut pandang yang berbeda (…) dan tidak menyukai beberapa pandangan daripada yang lain.”
Tweak itu datang ketika beberapa sekutu Gedung Putih menuduh chatbots AI terlalu “bangun.”
Banyak orang kepercayaan dekat Presiden Donald Trump, termasuk miliarder Elon Musk dan crypto dan AI “Czar” David Sacks, menuduh bahwa AI Chatbots menyensor pandangan konservatif. Sacks secara historis dipilih Openai’s Chatgpt sebagai “diprogram untuk dibangunkan” dan tidak jujur tentang materi pelajaran politik.
Pada kenyataannya, bias dalam AI adalah masalah teknis yang tidak dapat diselesaikan. Perusahaan AI Musk sendiri, Xai, telah berjuang untuk membuat chatbot yang tidak mendukung beberapa pandangan politik atas yang lain.
Itu tidak menghentikan perusahaan termasuk OpenAi dari menyesuaikan model AI mereka untuk menjawab lebih banyak pertanyaan daripada sebelumnya, khususnya pertanyaan yang berkaitan dengan subjek yang kontroversial.