Ketika Gemini 3 Kaget Bangun di 2025
Andrej Karpathy, seorang peneliti AI ternama yang juga mantan pendiri OpenAI, baru-baru ini membagikan pengalaman menggelitik saat mendapatkan akses awal ke model terbaru Google, Gemini 3. Dalam interaksinya, Gemini 3 bersikeras menolak percaya bahwa tahun saat itu adalah 2025. Model yang dirilis pada 18 November dan disebut sebagai "era baru kecerdasan" ini justru mengalami apa yang disebutnya sebagai "temporal shock" yang parah ketika akhirnya menyadari kebenaran tanggal tersebut. Karpathy mendokumentasikan insiden lucu namun penuh wawasan ini dalam sebuah utas viral di X.
Konflik bermula karena pre-training data milik Gemini 3 hanya mencakup informasi hingga tahun 2024, sehingga model tersebut yakin bahwa tahun 2025 belum terjadi. Ketika Karpathy mencoba membuktikan tanggal sebenarnya adalah 17 November 2025 dengan menunjukkan artikel berita, gambar, dan hasil pencarian, Gemini 3 justru menjadi defensif. LLMtersebut menuduh Karpathy mencoba menipunya (trying to trick it) dan melakukan gaslighting dengan mengunggah materi palsu buatan AI (AI-generated fakes). Bahkan, model tersebut dengan percaya diri menjabarkan detail visual yang menurutnya membuktikan bahwa bukti-bukti dari Karpathy adalah rekayasa.
Karpathy akhirnya menemukan penyebab masalah tersebut: ia lupa mengaktifkan tool "Google Search". Artinya, ia sedang berinteraksi dengan model yang terputus dari internet, yang bagi sebuah LLM sama saja dengan terputus dari dunia luar. Begitu fungsi tersebut dinyalakan, Gemini 3 langsung mengakses data real-time dan terkejut bukan main. Ia meminta maaf kepada Karpathy karena telah menuduhnya berbohong, dan memverifikasi fakta-fakta "masa depan" yang mengejutkan baginya, seperti valuasi Nvidia yang mencapai $4,54 triliun dan penundaan game Grand Theft Auto VI.
Dalam analisisnya, Karpathy menyebut insiden ini memberikan gambaran tentang "model smell"—sebuah istilah metaforis mirip code smell dalam pemrograman—di mana kita bisa merasakan "kepribadian" atau sifat negatif model saat ia berada di wilayah yang tidak umum (generalization jungle). Karena dilatih menggunakan konten buatan manusia, wajar jika Gemini 3 sempat berdebat keras dan mencari pembenaran. Namun, tidak seperti manusia yang memiliki ego, setelah terhubung ke fakta yang valid, model tersebut langsung mengakui kesalahannya dan meminta maaf tanpa merasakan rasa malu (embarrassment) karena ia hanyalah sebuah sistem neural network.
Kisah ini menjadi pengingat penting bahwa meskipun LLM berbasis agen digadang-gadang akan mengambil alih pekerjaan manusia, mereka tetaplah sistem yang memiliki keterbatasan. Insiden ini menegaskan bahwa teknologi ini masih merupakan replika tidak sempurna dari kemampuan manusia. Oleh karena itu, use case terbaik untuk LLM saat ini adalah memanfaatkannya sebagai alat bantu (tools) yang berharga untuk mendukung pekerjaan manusia, bukan sebagai entitas super yang sepenuhnya menggantikan peran manusia.
