Raksasa teknologi tersebut menyatakan optimismenya terhadap produk terbarunya namun juga mengakui bahwa saat ini memiliki keterbatasan.
Google telah merilis model kecerdasan buatan (AI) eksperimental baru yang diklaim memiliki “kemampuan penalaran yang lebih kuat” dalam merespons dibandingkan model dasar Gemini 2.0 Flash.
Diluncurkan kemarin (19 Desember), Gemini 2.0 Flash Thinking Experimental tersedia di platform prototipe AI Google, AI Studio.
Pengumuman ini mengikuti peluncuran Google Gemini 2.0, jawabannya terhadap ChatGPT OpenAI, minggu lalu, sementara OpenAI merilis pratinjau model AI “penalaran kompleks”, o1, pada bulan September.
Model penalaran dirancang untuk memeriksa fakta sendiri, sehingga membuatnya lebih akurat, meskipun model jenis ini sering kali membutuhkan waktu lebih lama untuk memberikan hasil.
Menurut Google, cara 'pikiran' model dikembalikan bergantung pada apakah pengguna menggunakan API Gemini secara langsung atau membuat permintaan melalui AI Studio.
Logan Kilpatrick, yang memimpin produk untuk AI Studio, menggunakan X untuk menyebut Gemini 2.0 “langkah pertama dalam [Google’s] perjalanan penalaran”.
Jeff Dean, kepala ilmuwan Google DeepMind and Research, juga mengklaim bahwa perusahaan melihat “hasil yang menjanjikan” dengan model baru ini.
Namun, Google juga mengakui bahwa model yang baru dirilis ini memiliki sejumlah keterbatasan. Ini termasuk batas input token 32k; hanya masukan teks dan gambar; batas keluaran token 8k; keluaran hanya teks; dan tidak ada penggunaan alat bawaan seperti Pencarian atau eksekusi kode.
TechCrunch melaporkan bahwa mereka menguji model tersebut secara singkat dan menyimpulkan bahwa “pasti ada ruang untuk perbaikan”.
Meskipun prospek model penalaran tampak menarik, karena kemampuannya untuk memeriksa fakta sendiri, model tersebut juga menimbulkan kekhawatiran, termasuk pertanyaan apakah model AI tersebut dapat secara efektif menipu dan menipu manusia.
Awal tahun ini, Dr Shweta Singh dari Universitas Warwick berpendapat bahwa merilis model canggih seperti itu tanpa pengawasan yang tepat adalah “salah arah”.
“Untuk mencapai tujuan yang diinginkan, jalur atau strategi yang dipilih oleh AI belum tentu adil atau sejalan dengan nilai-nilai kemanusiaan.”
Awal tahun ini, Stanford AI Index mengklaim bahwa evaluasi yang kuat untuk model bahasa besar “sangat kurang”, dan kurangnya standarisasi dalam pelaporan AI yang bertanggung jawab.
Jangan lewatkan pengetahuan yang Anda butuhkan untuk sukses. Mendaftarlah untuk Ringkasan Harianintisari berita teknologi ilmiah yang perlu diketahui dari Silicon Republic.