Halo semuanya! Balik lagi bareng gue, Nasywan.
Di sela-sela project an dan rutinitas ngoprek environment Hyprland, belakangan ini timeline Threads, Instagram, Twitter (X) dan Reddit gue dipenuhi oleh satu narasi yang sangat masif: perdebatan etika raksasa AI, hilangnya rasa percaya komunitas open-source terhadap OpenAI, dan migrasi besar-besaran para developer ke ekosistem alternatif.
Kalau kita tarik mundur ke awal ledakan AI, ChatGPT adalah "anak emas" industri teknologi. Semua orang memujanya. Tapi, sentimen itu berbalik drastis. Saat ini, gerakan untuk memboikot ChatGPT atau beralih ke model lain bukan lagi sekadar obrolan para developer di discord, melainkan sudah menjadi diskusi serius di level arsitektur perangkat lunak skala enterprise.
Sebagai seseorang yang sangat tertarik dengan dunia cybersecurity, OSINT, dan kultur open-source, gue merasa perlu untuk menuangkan opini dan analisis teknis gue terkait konflik filosofis antara OpenAI dan Anthropic, serta skandal kesepakatan militer yang baru-baru ini mengubah wajah industri AI secara permanen.
Mari kita coba bedah situasinya secara objektif.
Menghapusnya Klausul Militer: Saat OpenAI "Menjual" Jiwanya ke Pentagon
Pemicu utama dari gelombang antipati terhadap perusahaan pimpinan Sam Altman ini berakar pada sebuah pembaruan kebijakan yang dilakukan secara diam-diam.
Sejak awal berdirinya, OpenAI memiliki aturan ketat di dalam Terms of Service (ToS) mereka: Model AI mereka secara eksplisit dilarang digunakan untuk "militer dan peperangan" (military and warfare). Ini adalah fondasi moral yang membuat banyak periset dan developer mau menyumbangkan kode dan data mereka.
Namun, kebijakan itu tiba-tiba menguap. OpenAI menghapus larangan eksplisit tersebut dan tak lama setelahnya, mereka secara terbuka mengumumkan kemitraan dengan Departemen Pertahanan Amerika Serikat (Pentagon) dan DARPA (Defense Advanced Research Projects Agency).
Mereka berdalih bahwa kerja sama ini murni untuk keperluan "keamanan siber defensif" (mencegah peretasan jaringan pemerintah) dan bantuan medis veteran. Masalahnya, di dunia cybersecurity, garis batas antara defensive (bertahan) dan offensive (menyerang) itu sangat tipis. Sebuah AI yang diajari cara mencari celah keamanan (vulnerabilitas) untuk ditambal, adalah AI yang sama persis kemampuannya untuk mengeksploitasi celah tersebut sebagai senjata cyber warfare.
"Misi awal OpenAI adalah memastikan AGI (Artificial General Intelligence) bermanfaat bagi seluruh umat manusia. Bermitra dengan mesin perang paling mematikan di dunia di bawah bendera kontrak pertahanan tertutup adalah pengkhianatan terbesar terhadap manifesto awal mereka."
— Sentimen dominan dari komunitas pengembang Open-Source di forum Hacker News.
Kerja sama dengan Pentagon ini mengonfirmasi ketakutan terbesar para pengamat teknologi: AI tidak lagi menjadi alat demokratisasi informasi, melainkan telah menjadi komoditas senjata geopolitik.
Kebangkitan Anthropic dan Filosofi "Constitutional AI"
Di saat OpenAI sibuk membangun dominasi komersial dan kontrak pemerintah, sebuah perusahaan bernama Anthropic muncul sebagai antitesis yang sangat elegan.
Menariknya, Anthropic didirikan oleh Dario Amodei dan sekumpulan mantan petinggi riset OpenAI. Mereka keluar (resign massal) karena muak dengan arah perusahaan yang terlalu mengejar profit dan mengabaikan pagar betis keselamatan AI. Dari pemberontakan internal inilah lahir Claude, rival terberat ChatGPT.
Anthropic membawa pendekatan teknis yang sangat berbeda yang mereka sebut sebagai Constitutional AI. Alih-alih melatih model menggunakan metode RLHF (Reinforcement Learning from Human Feedback) yang sangat rentan bias dan membutuhkan eksploitasi ribuan pekerja kasar untuk melabeli data, Anthropic menanamkan semacam "Konstitusi" atau undang-undang etika ke dalam modelnya. Model AI tersebut diajari untuk mengawasi, mengkritik, dan merevisi output-nya sendiri berdasarkan prinsip-prinsip konstitusi tersebut (seperti Deklarasi Universal Hak Asasi Manusia).
Biar lebih jelas, mari kita lihat tabel komparasi filosofis dan teknis antara keduanya di mata developer:
| Aspek Penilaian | OpenAI (ChatGPT) | Anthropic (Claude) |
|---|---|---|
| Fondasi Filosofis | Akselerasi komersial & deployment agresif. | Safety first & riset keselamatan jangka panjang. |
| Pendekatan Etika | RLHF (Ketergantungan pada human labelers). | Constitutional AI (Self-correction berbasis prinsip). |
| Kebijakan Militer | Terbuka untuk kontrak pertahanan (Pentagon/DARPA). | Secara tegas menolak penggunaan untuk persenjataan. |
| Kemampuan Coding | Cenderung malas (lazy coding), sering memotong baris kode. | Jauh lebih teliti, mampu membaca ribuan baris tanpa ampun. |
| Transparansi | Semakin tertutup (Model tidak lagi "Open"). | Mempublikasikan paper riset tentang alignment secara rutin. |
Di kalangan software engineer seperti gue, model terbaru Claude (Keluarga Sonnet dan Opus) saat ini jauh mengungguli GPT-4 dalam hal penalaran logika pemrograman. Claude tidak malas; saat kita memintanya me- refactor komponen React atau men- debug smart contract Solidity yang kompleks, ia akan memberikan kode utuh tanpa memotongnya dengan komentar menyebalkan seperti // ... rest of your code here.
Akar Gerakan "Boycott ChatGPT"
Gerakan memboikot produk OpenAI bukan murni karena urusan militer saja. Ini adalah akumulasi dari serangkaian skandal dan arogansi korporasi yang memuakkan bagi komunitas open-source:
- Pencurian Data Skala Masif: OpenAI secara sepihak menyedot seluruh data internet, termasuk repositori GitHub, artikel berita (yang memicu gugatan raksasa dari The New York Times), dan karya seni tanpa kompensasi sepeser pun kepada kreator aslinya.
- Drama Kepemimpinan Sam Altman: Insiden pemecatan dan kembalinya Sam Altman yang diwarnai drama campur tangan Microsoft membuktikan bahwa dewan direksi yang seharusnya menjaga etika AI tidak punya kekuatan apa-apa di hadapan kepentingan triliunan dolar.
- Membunuh Startup Ekosistem: Kebiasaan OpenAI merilis fitur baru yang secara langsung menjiplak dan membunuh startup kecil yang dibangun di atas API mereka (Sherlocking).
- Walled Garden (Tembok Pembatas): Semakin hari, model OpenAI semakin disensor berat (over-aligned) dan dikunci agar pengguna bergantung pada ekosistem berbayar mereka.
Sebagai respons, banyak periset beralih mendukung inisiatif model yang benar-benar bisa dijalankan secara lokal ( Local LLMs) pada perangkat keras kita sendiri. Tools seperti Ollama atau LM Studio kini memungkinkan kita menjalankan model sekelas Llama 3 atau Mistral secara luring (offline) tanpa mengirim satu bait pun data telemetry ke server milik Sam Altman.
Ke Mana Arah Masa Depan AI? (Opini Pribadi)
Melihat konstelasi perang dingin teknologi ini, gue memprediksi akan ada tiga pergeseran fundamental yang akan mendefinisikan infrastruktur web dan rekayasa perangkat lunak dalam beberapa tahun ke depan:
A. "The Splinternet of AI" (Perpecahan Kubu)
Kita akan melihat polarisasi ekstrem. Di satu sisi, ada AI Korporat/Militer (OpenAI, Google) yang sangat kuat, disensor ketat, disokong oleh modal negara, dan difokuskan pada infrastruktur pertahanan serta monopoli perusahaan raksasa.
Di sisi lain, kubu Pemberontak Open-Source (Meta dengan Llama-nya, Mistral dari Eropa, dan komunitas HuggingFace) yang menyediakan model bobot terbuka (open-weights). Developer independen akan mati-matian mempertahankan kubu kedua ini untuk menjaga kebebasan berekspresi dan inovasi tanpa izin otoritas pusat.
B. Arsitektur Agnostik API (Anti Vendor Lock-in)
Buat lo yang sering nge-build fitur chatbot atau analisis AI di dalam proyek lo, berhentilah menggunakan SDK native milik OpenAI.
Tren saat ini adalah menggunakan arsitektur penengah (middleware atau framework seperti Vercel AI SDK atau arsitektur agentic berbasis Rust seperti ZeroClaw) yang memungkinkan kita mengganti otak AI hanya dengan mengubah satu baris variabel di berkas .env. Jika besok OpenAI tiba-tiba mengubah kebijakan privasi mereka dan menaikkan harga API tiga kali lipat, lo bisa langsung memindahkan seluruh otak sistem lo ke Claude (Anthropic) atau model lokal tanpa perlu menulis ulang ratusan baris kode layanan backend.
C. Kebangkitan "Privacy-First AI" dalam OSINT & Web3
Khusus di bidang yang gue pelajari seperti OSINT dan integrasi Web3, privasi adalah harga mati. Mengirimkan log transaksi blockchain atau analisis intelijen target ke server perusahaan yang bekerja sama dengan Pentagon adalah kecerobohan luar biasa.
Di masa depan, edge computing—di mana model AI berskala kecil dijalankan langsung di memori HP atau browser pengguna akan menjadi standar baku keamanan aplikasi.
Kesimpulan
OpenAI mungkin adalah entitas yang memicu revolusi kecerdasan buatan, namun mereka jelas bukan pahlawannya. Langkah agresif mereka menuju komersialisasi monopolistik dan integrasi dengan kompleks industri militer adalah sinyal peringatan (red flag) yang tidak bisa diabaikan begitu saja oleh komunitas teknologi.
Kehadiran Anthropic memberikan napas segar bahwa sebuah model Large Language Model (LLM) masih bisa dibangun dengan fondasi etika yang kuat tanpa harus mengorbankan kualitas penalaran teknis. Namun, Anthropic pun masih berupa perusahaan tersentralisasi yang sewaktu-waktu bisa dibeli oleh korporasi yang lebih besar.
Solusi jangka panjang terbaik bagi kita para developer dan pengguna internet adalah terus mendukung ekosistem open-source. Jalankan model lo sendiri secara lokal, pertahankan kendali atas data pribadi lo, dan rancang arsitektur aplikasi yang kebal terhadap monopoli satu vendor.
Dunia kecerdasan buatan ini bergerak terlalu cepat. Kalau kita cuma jadi konsumen pasif, kita hanya akan berakhir menjadi produk bagi korporasi dan alat pemantauan bagi negara.
Bagaimana pandangan kalian tentang kerja sama OpenAI dan Pentagon ini? Apakah kalian tim yang masih setia pakai ChatGPT karena kepraktisannya, atau sudah sepenuhnya migrasi ke Claude dan model lokal?
