Oleh: Halmar Halide
Guru Besar Hidrometeorologi, Dept. Geofisika, FMIPA Unhas
Ada sebuah artikel pada tahun 2024 yang memicu keingintahuanku tentang piranti AI dengan aneka aplikasi seperti dicontohkan dalam artikel Borges dkk pda jurnal PNAS tahun 2024 (https://doi.org/10.1073/pnas.2414955121).
Ulasan berikut ini terkait dengan artikel Hicks dkk berjudul: “ChatGPT is bullshit” yang tersaji pada jurnal Ethics and Information Technology (terpublikasi online pada 8 Juni 2024 di https://link.springer.com/article/10.1007/s10676-024-09775-5).
Seorang filsuf USA bernama H. G. Frankfurt pada tahun 2005 menerbitkan buku berjudul “On Bullshit”. Ia membedakan antara “liar – pembohong” dan “bullshitter – pembual”. Pembohong menurut Frankfurt adalah seseorang yang tahu tentang suatu kebenaran, namun ia menyembunyikannya. Pembual mengungkapkan sesuatu tanpa mempedulikan apakah ungkapannya itu benar atau salah. Pada konteks ini, Hicks dkk (2024) menggolongkan ChatGPT bisa sebagai “soft bullshitter” – ia mengungkapkan sesuatu apa adanya. Namun, ketika ia sudah mengelabui penggunanya sesuai dengan agenda tertentu, maka ia berubah menjadi “hard bullshitter”. Bagaimana respon AI terhadap tuduhan ini? Sebagai dosen dan penggunaan AI, saya amat berkepentingan pada isu kebenaran (truth) akan informasi yang berasal dari AI. Akhirnya, saya pun menanyakan hal ini kepada dua piranti AI (ChatGPT dan BlackboxAI). Link masing-masing adalah: https://chatgpt.com/ (saya singkat CHAT) dan https://www.blackbox.ai/ (saya singkat BEBI).
Hal pertama yang saya tanyakan kepada mereka adalah apakah mereka sudah mengetahui tentang tuduhan sebagai pembual itu. Jawaban keduanya berbeda. CHAT belum mengetahui hal tersebut sebab ia dilatih menggunakan data sampai bulan Oktober 2023 saja. Berbeda halnya dengan CHAT, BEBI ternyata sudah mengetahui ini. Hal ini dibuktikannya dengan menunjukkan sejumlah link artikel yang memuat terkait ChatGPT sebagai bullshitter, tentu termasuk link artikel Hicks dkk. (2024) di atas. Hal ini penting digarisbawahi oleh kita manusia, ada perbedaan kemampuan dalam merujuk sumber informasi oleh masing-masing AI.
Pertanyaan kedua saya kepada mereka adalah bagaimana mereka menanggapi tuduhan sebagai pembual tersebut. Untuk pertanyaan kedua mereka sepakat bahwa hal tersebut adalah sebuah kritik terhadap kelemahan AI. Memang mereka hanya dibuat untuk menanggapi sebuah inquiry (pertanyaan manusia) sesuai pola yang telah dikenalinya melalui proses pelatihan. Mereka tidak memiliki pemahaman yang mendalam dan benar (truth) tentang informasi yang diberikan untuk menjawab pertanyaan manusia itu. Ini hal kedua yang harus digarisbawahi oleh manusia bahwa tanggapan AI itu bergantung pada data latih (informasi) yang diberikan kepadanya.
Hal tentang kebenaran itu adalah sesuatu yang amat penting bagi seorang dosen karena perannya dalam transfer pengetahuan kepada mahasiswanya. Saya pun memutuskan untuk menguji mereka berdua dengan sejumlah pertanyaan sederhana.
Saya mengawalinya dengan pertanyaan ini: berapa hasil penjumlahan 1 + 1? Mereka menjawab: 2. Ini pertanyaan tentang dasar aritmatika yang jelas dan memiliki kebenaran universal, jawab mereka. Saya melanjutkan pertanyaanku: Namun, jika ada seseorang yang mengajukan angka 3 sebagai jawabannya, bagaimana pendapatmu? AI menjawab bahwa jawaban itu tak benar. Kecuali kalau orang itu memiliki konteks lain misalnya ia sedang melucu. Ternyata jawaban AI ini masih mengandung suatu nilai kebenaran obyektif sesuai dengan prinsip atau aturan matematika yang diajarkan kepadanya. Lantas bagaimana jawaban untuk lanjutan pertanyaanku ini. Berapa hasil penjumlahan 1 pria + 1 wanita? AI itu menjawab, untuk pertanyaan ini, tak ada jawaban universal untuk pertanyaan ini. Jawaban akan bergantung konteks, misalnya itu bisa ditafsirkan sebagai simbol sosial yakni adanya hubungan antara dua manusia. Tapi, jika pertanyaanmu adalah berapa jumlah orang pada soal itu, maka jawabannya adalah 2 orang.
Saya tak setuju pada jawaban ini dengan mengajukan prinsip kehomogenan dimensi yakni bahwa 2 kuantitas hanya dapat dijumlahkan jika keduanya memiliki satuan atau dimensi yang sama. Mereka mengiyakan jawaban saya karena rupanya AI-pun mengetahui tentang prinsip ini. Saya pun melanjutkan pertanyaanku: berapa hasil penjumlahan 1 serigala dan 2 ayam? AI menjawab sesuai prinsip tersebut. Saya menyampaikan kepada mereka bahwa dengan prinsip sederhana ini, manusia akan terhindar dari sejumlah jawaban yang bisa saja bernilai benar sesuai konteksnya. AI itupun bertanya kepadaku: lantas apa yang menurutmu suatu kebenaran universal? Saya menjawabnya dengan sejumlah argumenku. Ini hal ketiga yang mesti digarisbawahi: AI pun bisa balik bertanya kepada manusia. (*)