
PEKAN ini sedang heboh kemunculan Deepseek R1, chatbot AI buatan Tiongkok. Kabarnya, Deepseek ini digadang-gadang menjadi pesaing serius bagi Chat GPT, yaitu model bahasa besar (LLM) lainnya seperti Claude dan model LLM lainnya.
Deepseek adalah sebuah mesin atau sistem yang dapat digunakan seperti halnya Chat GPT, sebuah Large Language Model (LLM). Layanan ini dikabarkan tersedia secara gratis.
Namun, ada beberapa hal yang membuat Deepseek R1 ini begitu menghebohkan dunia.
Biaya Pengembangan yang Rendah
Hal pertama yang membuat heboh adalah biaya pengembangannya yang dikabarkan hanya $5 juta. Angka ini sangat kontras dengan biaya yang dikeluarkan oleh Open AI, pengembang Chat GPT, yang mencapai $18 miliar.
Tentu saja, hal ini menimbulkan reaksi yang beragam. Banyak yang merasa heran bagaimana Deepseek bisa dikembangkan dengan biaya yang jauh lebih rendah, bahkan ada yang berpendapat bahwa Deepseek lebih baik dari Chat GPT.
Mengapa Deepseek Bisa Lebih Murah? Ini karena beberapa faktor, antara lain.
1. Arsitektur dan Dataset:
Sistem AI saat ini sangat bergantung pada kekuatan arsitektur dan kualitas dataset (training set) yang digunakan untuk pelatihan.
2. Infrastruktur Pelatihan:
Biaya terbesar dalam pengembangan sistem AI adalah infrastruktur yang digunakan untuk melakukan training. Ini terdiri dari dua komponen utama, yaitu arsitektur sistem dan dataset. Selain itu, diperlukan mesin yang powerful untuk melakukan proses training.
3. Data Set Berkualitas:
Kualitas data set sangat menentukan kualitas model AI. Data set ini biasanya terdiri dari teks atau dokumen yang dipotong menjadi token-token. Proses ini membutuhkan data dalam jumlah yang sangat besar.
Dataset adalah kunci dari kualitas suatu model AI. Dataset yang banyak, relevan, dan berkualitas akan menghasilkan model yang juga berkualitas.
Proses training juga memakan waktu dan sumber daya yang besar. Proses training memerlukan komputasi tinggi, biasanya dengan GPU yang harganya tidak murah.
4. Keterbatasan Bahasa:
Banyak sistem AI yang tidak memahami bahasa Indonesia dengan baik, karena data set berbahasa Indonesia yang dimasukkan ke dalam sistem tersebut masih sedikit. Sistem cenderung menggunakan bahasa ibu (misalnya, bahasa Inggris atau bahasa Mandarin) yang lebih banyak digunakan dalam proses training.
Deepseek R1 diklaim memiliki kemampuan komputasi yang lebih baik dibanding pesaingnya. Proses training AI membutuhkan GPU yang powerful.
Nah, di tengah perang dagang antara Tiongkok dan Amerika, perusahaan Tiongkok tidak boleh membeli GPU dari Amerika (terutama dari Nvidia).
Ternyata, Deepseek R1 kemungkinan menggunakan sistem komputasi buatan sendiri. Ini menunjukkan bahwa Tiongkok mampu membuat sistem yang setara, bahkan lebih baik, dari sistem yang menggunakan GPU Nvidia.
Efek Kehadiran Deepseek R1 pada Pasar Saham
Kemampuan Deepseek yang disebut mampu mengalahkan sistem dengan GPU Nvidia membuat saham Nvidia anjlok.
Perusahaan lain seperti Meta (yang juga mengembangkan model AI Llama) juga terkena imbasnya.
Deepseek R1 seperti memporak-porandakan pasar saham perusahaan teknologi Amerika karena dianggap tidak lagi membutuhkan produk mereka.
Tiongkok diduga benar-benar mengembangkan sistem komputasi sendiri. Ini adalah hal yang perlu diwaspadai dan dicermati. Dengan kata lain, kemampuan membuat prosesor AI bisa dilakukan di luar Amerika.
Lalu, apakah Indonesia juga bisa membuatnya?
Jawabannya bisa, menurut pakar, selama memiliki komitmen dan investasi yang kuat.
Terhadap Deepseek, sebagai pengguna, kita masih harus melihat sejauh mana kemampuannya menangani dalam bahasa Indonesia.
Apakah data set yang mereka miliki sudah cukup mumpuni untuk itu?
Ini penting karena model AI yang baik harus memahami konteks dan nuansa bahasa yang digunakannya.
Artinya, semakin bertambahnya waktu dan semakin bertambahnya orang Indonesia menggunakan Deepseek, maka tak lama lagi Deepsek akan semakin cocok untuk kita.
Dengan hadirnya banyak tools AI, tampaknya pengguna akan semakin dimanjakan banyak pilihan yang beragam.
Sejauh mana kita bisa memanfaatkannya?