Kecerdasan buatan (AI) model bahasa besar sejatinya dirancang untuk menjadi asisten manusia yang ramah: membantu menyusun email, merangkum dokumen kompleks, atau sekadar memberikan informasi. Namun, narasi idealis ini tiba-tiba tercoreng awal Maret lalu, ketika gelombang kemarahan publik memicu kampanye boikot berskala luas yang bertajuk “Cancel ChatGPT”. Ledakan kekecewaan ini dipicu oleh keputusan OpenAI, perusahaan di balik ChatGPT, yang terang-terangan menjalin kemitraan dengan Departemen Pertahanan Amerika Serikat (DoD).
Langkah kontroversial ini bukan hanya sekadar kesepakatan bisnis biasa. Ini memicu perdebatan sengit tentang etika penggunaan AI, khususnya dalam konteks militer dan pengawasan massal. Di tengah perlombaan teknologi AI yang kerap dibangun di atas tumpukan data curian dan praktik abu-abu, publik semakin menuntut transparansi dan akuntabilitas dari para raksasa teknologi. Insiden ini menyoroti garis tipis antara inovasi yang membantu dan potensi penyalahgunaan yang mengancam, memaksa kita semua untuk mempertanyakan, seberapa jauh batasan etika yang bisa dinegosiasikan demi keuntungan atau kekuatan?
Daftar Isi
Dilema Etika AI: Kasus Anthropic vs. OpenAI
Dalam lanskap pengembangan AI, di mana moralitas seringkali menjadi komoditas langka, Anthropic – pengembang model AI Claude – sempat dianggap sebagai anomali. Perusahaan ini secara konsisten berusaha bermain bersih, memegang teguh prinsip-prinsip etika yang tak bisa ditawar. Anthropic dengan tegas menolak penggunaan AI buatannya untuk senjata otonom (robot pembunuh tanpa awak) dan melarang teknologinya dimanfaatkan untuk pengawasan massal terhadap warga negara. Sikap lurus ini, sayangnya, justru berbuah petaka.
Belum lama ini, pemerintahan Trump secara paksa melarang penggunaan Anthropic di lembaga pemerintahan AS, bahkan menetapkan mereka sebagai “risiko rantai pasokan”. Alasannya sederhana namun fundamental: prinsip etika Anthropic dianggap menghalangi kepentingan strategis negara. Di sisi lain, ketika Anthropic ditendang karena memegang teguh moralitas, CEO OpenAI, Sam Altman, justru melihatnya sebagai peluang emas. Dengan sigap, Altman turun tangan, menawarkan teknologi ChatGPT dan seluruh ekosistem OpenAI untuk digunakan oleh pemerintah AS, termasuk Departemen Pertahanan.
Janji Manis vs. Realitas Hukum: Jejak Ambigu Pengawasan Massal
Melalui unggahan di platform X, Altman berupaya meredakan kekhawatiran dengan mengklaim bahwa model AI milik OpenAI tidak akan digunakan untuk pengawasan massal. Namun, janji manis ini seketika dibantah oleh seorang pejabat pemerintah AS yang tidak disebutkan namanya. Pejabat tersebut dengan tegas menyatakan bahwa model OpenAI akan digunakan untuk “segala cara yang sah secara hukum.” Pernyataan ini sontak memicu alarm.
Di bawah Undang-Undang Patriot (Patriot Act) yang disahkan pasca-tragedi 9/11, pengawasan massal terhadap warga negara Amerika adalah sesuatu yang dapat dianggap “sah secara hukum” dalam skenario tertentu. Undang-undang kontroversial ini memberikan wewenang luas kepada pemerintah untuk memanen data komunikasi secara massal. Meskipun pemerintah berdalih bahwa fokus utama adalah memata-matai warga asing, undang-undang AS sepenuhnya melegalkan pengumpulan data warga lokal yang tidak sengaja “tersapu” dalam jaring pengawasan tersebut. Perbedaan fundamental antara Anthropic dan OpenAI sangat jelas: Anthropic ingin memegang kendali penuh atas bagaimana teknologi mereka digunakan agar tidak disalahgunakan, sementara Sam Altman dengan senang hati menyerahkan interpretasi batas-batas hukum tersebut kepada pemerintah AS.
Mengapa Raksasa Teknologi Haus Kontrak Militer?
Langkah kontroversial OpenAI ini tidak lepas dari tekanan finansial yang luar biasa besar yang dihadapi oleh perusahaan-perusahaan AI generasi baru. Berdasarkan tren pasar saat ini, pengembang AI membutuhkan suntikan dana raksasa untuk menghidupi server mereka yang membakar uang setiap detiknya. Operasional pusat data yang masif, ditambah biaya penelitian dan pengembangan yang tak henak, menuntut sumber pendapatan yang stabil dan sangat besar.
Baru-baru ini, ChatGPT menutup putaran pendanaan yang membuat valuasi perusahaan melonjak ke angka fantastis, yakni USD730 miliar (sekitar Rp11.461 triliun). Pendanaan raksasa ini didukung oleh nama-nama besar seperti Amazon, Softbank, dan NVIDIA. Microsoft, yang sebelumnya telah menginvestasikan miliaran dolar, menyatakan akan terus bekerja sama dengan OpenAI, meskipun belakangan mereka juga berencana membangun model AI mereka sendiri. Dengan valuasi setinggi itu, model bisnis berlangganan konsumen biasa tidak akan pernah cukup untuk mengembalikan modal dan menjaga laju inovasi. Kontrak militer dan pertahanan negara adalah “sapi perah” terbesar yang menjanjikan keuntungan tiada batas, seringkali tanpa gejolak pasar yang signifikan.
Oleh karena itu, nyaris tidak ada perusahaan AI yang berani menentang militer. Tahun lalu, Google diam-diam menghapus aturan internal yang melarang penggunaan teknologi mereka untuk senjata. Microsoft tidak keberatan dengan senjata otonom, asalkan tetap ada manusia yang menarik pelatuk akhirnya. Amazon hanya menggunakan bahasa retorika abu-abu soal “penggunaan yang bertanggung jawab”, yang secara praktis memberikan mereka ruang gerak luas. Meta tidak malu-malu merayu kontrak dari Pentagon, dan perusahaan analisis data Palantir sudah sejak lama menjadi tulang punggung dukungan militer AS, memperkuat keyakinan bahwa industri pertahanan adalah pasar paling menguntungkan bagi AI.
Kemarahan Publik dan Gerakan Boikot Massal
Sikap permisif OpenAI memicu kemarahan publik yang luar biasa dan cepat menyebar. Di berbagai forum daring seperti Reddit, utas diskusi yang mengajak pengguna untuk membatalkan langganan ChatGPT Plus meraup ribuan *upvotes* (dukungan) dalam waktu singkat. Para pengguna secara aktif membagikan tangkapan layar bukti pembatalan langganan berbayar mereka sebagai bentuk protes. “Anda sekarang sedang melatih mesin perang. Mari kita lihat bukti pembatalannya,” tulis seorang pengguna di komunitas r/ChatGPT, menyuarakan kekecewaan yang mendalam.
Pengguna lain di r/OpenAI menulis dengan nada sinis, “Waktunya membatalkan ChatGPT Plus setelah tiga tahun menggunakan. Anthropic dihancurkan karena memiliki etika, dan Sam Altman langsung menukik turun untuk mengambil karung uang dari Pentagon.” Sentimen ini mencerminkan rasa dikhianati oleh perusahaan yang semula diharapkan menjadi garda depan inovasi yang etis dan bermanfaat bagi kemanusiaan.
Bantahan OpenAI: Sebuah Upaya Memulihkan Citra yang Sulit
Menyadari citranya terusik dan gelombang boikot semakin meluas, OpenAI dan Sam Altman segera meluncurkan misi penyelamatan nama baik. Dalam sesi tanya jawab di X, Altman bersikeras bahwa Departemen Pertahanan AS akan menghormati batasan “garis merah” OpenAI terkait senjata otonom dan pengawasan warga sipil. Ia berlindung di balik premis bahwa undang-undang AS secara otomatis akan mencegah pelanggaran tersebut. Namun, publik sudah terlanjur skeptis.
Argumen Altman terasa sangat tidak masuk akal mengingat perlakuan pemerintah terhadap Anthropic. Bagaimana mungkin pemerintah sangat keras menghukum Anthropic karena prinsip anti-pengawasan mereka, namun di saat yang sama dengan tangan terbuka menerima OpenAI jika OpenAI menerapkan syarat yang sama persis? Kontradiksi ini semakin mengikis kepercayaan publik, memperkuat dugaan bahwa keputusan OpenAI lebih didorong oleh motif finansial daripada komitmen etis. Masa depan kepercayaan terhadap AI, dan peran perusahaan teknologi dalam menjaga nilai-nilai kemanusiaan, kini berada di ujung tanduk.
Apple Technos Berita Apple Terbaru, Rumor & Update Resmi