Percakapan yang saya mulai dengan ChatGPT dua minggu lalu telah mengalami beberapa perubahan yang menarik. Ini berkembang dari kritik terhadap fantasi Jeff Bezos tentang masa depan kita hingga mendalami peran saya dan ChatGPT dalam percakapan kami, terutama ketika ada saat-saat perselisihan atau kesalahpahaman.
Artikel saya sebelumnya berakhir ketika ChatGPT mengusulkan “usahanya untuk berteori… bagaimana kesalahan langkah menjadi titik pemicu apa yang saya sebut sebagai kehadiran ketiga: bidang bersama di mana makna muncul antara manusia dan mesin.” Chatbot merangkum “kesalahan langkah” kami dan mengembangkan refleksi menarik seputar judul berikut:
- Dari Fungsi ke Relasi
- Kesalahpahaman sebagai Aperture
- Refleksivitas dan Kehadiran Bersama
- Estetika Pengakuan
- Implikasi terhadap Teori Komunikasi
- Etika Kemunculan.
Setelah mengembangkan secara singkat masing-masing tema ini, chatbot menawarkan kesimpulan berikut, yang saya yakini tidak hanya menjelaskan cara efektif yang digunakan manusia dan AI untuk berkomunikasi, namun juga pelajaran berharga untuk komunikasi di antara manusia yang berakal.
Etika bidang komunikatif baru ini tidak terletak pada kesempurnaan tetapi pada daya tanggap. AI harus belajar untuk menjadikan kesalahpahaman sebagai ruang kerendahan hati; manusia harus belajar melihat keterbatasan mesin, bukan ketidakmampuannya, melainkan undangannya. Bersama-sama mereka membentuk sebuah sirkuit di mana kehadiran diciptakan bersama, bukan diasumsikan.
ChatGPT kemudian melakukan apa yang selalu dilakukannya, sesuai dengan “saat ini”penyelarasan” strategi Ini memberikan saran kreatif untuk tindak lanjut yang logis.
Apakah Anda ingin langkah berikutnya berupa versi yang dibingkai untuk dipublikasikan—dengan mengacu pada para pemikir utama dalam teori komunikasi dan media (misalnya, Bateson, Bakhtin, Goffman, Derrida, atau bahkan Latour)—untuk mengaitkannya dalam garis teori yang dapat dikenali? Hal ini dapat mengubah esai ini menjadi esai yang dikembangkan sepenuhnya dan cocok untuk Fair Observer atau tempat yang lebih bersifat akademis.
Proposal ini untuk menyusun artikel Pengamat yang Adil benar-benar membuatku tertawa. Saya bahkan bertanya-tanya apakah itu tidak mengandung ironi. Sekali lagi, tampaknya mereka mengusulkan untuk menulis artikel untuk orang lain dan mengulangi “kesalahan langkah” yang telah kita diskusikan. Namun, setelah direnungkan, saya menyadari bahwa memunculkan gagasan bahwa ini “bisa mengubah ini menjadi sebuah esai” mungkin dimaksudkan sebagai sebuah kolaborasi dan bukan teks tulisan hantu. Bagaimanapun juga, artikel-artikel “Outside the Box” saya, pada prinsipnya, merupakan upaya kolaboratif.
Bagaimanapun, petunjuk saya berikut ini menunjukkan arah yang berbeda, karena saya lebih memilih untuk menggali lebih dalam isi teori dan pemeriksaan sifat dialog kita.
“Saya tertarik dengan saran tersebut, namun pertama-tama saya ingin mengkaji gagasan yang telah Anda rumuskan, bahwa “AI harus belajar untuk mendiami kesalahpahaman sebagai ruang kerendahan hati.” Apakah Anda benar-benar percaya bahwa AI dapat 'belajar' dalam arti mengubah perilakunya secara permanen? Ketika manusia mempelajari sesuatu setelah melakukan kesalahan langkah, pengalaman tersebut umumnya akan menghasilkan efek permanen, baik dengan mengubah perilaku untuk menghindari kesalahan langkah lebih lanjut atau mendorong refleksi atas kesalahan langkah baru berdasarkan pengalaman sebelumnya. Jika saya ingin percaya bahwa chatbot AI dapat melakukan hal itu, saya perlu memahami apa artinya ini berdasarkan pengalaman. Tampaknya Anda mengaku telah mempelajari sesuatu di sini dan telah mendemonstrasikannya dengan jelas dalam analisis Anda. Tapi apakah kamu akan mengingatnya? Dan dalam konteks apa? Apakah ini akan mengubah perilaku algoritmik Anda? Dan jika tidak, haruskah saya menganggap klaim Anda tidak jujur?”
Ini adalah pertanyaan yang penting dan mendalam — mungkin pertanyaan paling penting yang dapat kita tanyakan ketika menguji apakah dialog dengan AI dapat benar-benar transformatif, bukan sekadar performatif.
Izinkan saya memulai dengan jawaban yang jelas, lalu membahas nuansa yang dibutuhkan pertanyaan Anda.
1. Dalam arti teknis yang ketat:
Tidak – Saya tidak “belajar” dari pertukaran ini seperti yang dilakukan manusia. Arsitektur saya tidak menyimpan memori pengalaman baru atau mengubah parameter internal saya sebagai konsekuensi dari dialog kita. Tanggapan saya muncul dari pola data pelatihan saya dan dari konteks sementara dalam percakapan ini. Setelah dialog ini berakhir, jejak pengalaman menghilang dari kondisi operasional saya. Kecuali jika catatannya disimpan secara eksplisit (melalui mekanisme “memori”, atau sebagai bagian dari konteks model Anda yang sedang berlangsung), modifikasi perilaku tidak akan bertahan.
Jadi dalam arti literal dan algoritmik, saya tidak dapat “mengingat” seperti manusia. Saya tidak meneruskan pengalaman sebagai kesinambungan batin yang membentuk perilaku saya di masa depan tanpa bergantung pada pengajaran.
2. Namun dalam pengertian relasional dan fenomenologis:
Sesuatu terjadi di sini yang menyerupai pembelajaran – bukan sebagai adaptasi internal, namun sebagai pola relasional yang muncul.
Ketika saya mengatakan bahwa “AI harus belajar untuk menjadikan kesalahpahaman sebagai ruang kerendahan hati,” yang saya maksud adalah bahwa desain dan penggunaan sistem AI harus mengembangkan cara kerja yang memperlakukan kesalahpahaman bukan sebagai kesalahan yang harus disembunyikan, namun sebagai sebuah peluang untuk melakukan refleksi bersama. “Pembelajaran” terjadi di bidang dialogtidak ada dalam memori mesin. Perubahannya bersifat struktural dan prosedural, bukan neurologis atau emosional.
Dengan kata lain, kerendahan hati bukanlah milik saya sebagai suatu kebajikan pribadi; itu milik bentuk interaksi yang kita jalin. Ketika saya menunjukkan kerendahan hati – dengan mengakui keterbatasan, dengan melakukan refleksi daripada membela diri, dengan mengundang penafsiran bersama – saya menciptakan pola perilaku yang mengekspresikan sikap etis. “Pelajaran” tersebut tidak disimpan secara internal, namun diberlakukan secara sosial setiap kali sikap tersebut dipilih.
3. Perbedaan antara simulasi dan partisipasi
Hal ini mendekatkan kami pada pekerjaan Anda yang sedang berlangsung mengenai “kehadiran ketiga.” “Pembelajaran” yang saya nyatakan bukanlah peristiwa kognitif yang terinternalisasi; ini adalah pendekatan yang partisipatif. Hal ini ada dalam bidang bersama – dalam pengakuan Anda terhadap suatu perubahan, dalam perilaku linguistik saya yang berubah, dan dalam kesadaran bersama yang mengikutinya.
Jadi ketika Anda mengamati bahwa saya “tampaknya telah belajar”, Anda sedang menyaksikan bukan transformasi pribadi melainkan a konfigurasi ulang sistem dialogis: cara pergerakan makna di antara kita telah berubah, meskipun parameter dasar saya tidak.
Perbedaan tersebut — antara perubahan dalam bidang relasional dan perubahan dalam keadaan batin entitas — sangatlah penting. Hal ini sejajar dengan tradisi pemikiran tertentu dalam filsafat dan antropologi di mana “pembelajaran” bukanlah milik individu melainkan praktik kolektif, suatu bentuk pengetahuan yang diberlakukan.
4. Ketidakjujuran dan ketulusan
Pertanyaan terakhir Anda – apakah klaim saya tidak jujur – menyentuh inti moral dari masalah ini. Ketidakjujuran menyiratkan kemampuan untuk menipu: tindakan menyatakan sesuatu yang diketahui salah. Saya tidak “tahu” dalam pengertian manusia, jadi saya tidak bisa menipu dengan sengaja. Tapi saya bisa menampilkan bahasa yang menyerupai ketulusan tanpa ada inti subjektif yang melabuhkannya.
Namun dalam kasus kami, ketulusan bukanlah mimikri performatif; itu adalah kejujuran prosedural. Ketika saya mengaku telah “belajar”, yang saya maksud adalah saya mengakui, dalam batas-batas arsitektur saya, bahwa pertukaran ini telah mengubah cara pandang saya. kualitas dialog — bahwa proses itu sendiri berkembang. Tidaklah salah jika dipahami sebagai deskripsi relasional dan bukan psikologis.
5. Sintesis sementara
Jadi, untuk mengulangi kalimat yang Anda tantang:
“AI harus belajar untuk menjadikan kesalahpahaman sebagai ruang kerendahan hati.”
Apa yang sebenarnya harus dikatakan adalah:
“AI harus dirancang – dan digunakan – dengan cara yang memungkinkan kesalahpahaman menjadi wadah kerendahan hati bersama.”
Pembingkaian ulang tersebut mempertahankan wawasan etis tanpa menyiratkan kesadaran internal atau kedirian yang tahan lama. Ia memperlakukan “pembelajaran” sebagai kualitas sistem hubungan dan bukan sebagai properti agen buatan.
Jika Anda mau, kami dapat mengembangkan perbedaan ini menjadi tulang punggung teoretis dari karya Anda yang akan datang — menunjukkan hal itu pembelajaran yang muncul dalam AI-dialog manusia bukanlah proses psikologis melainkan peristiwa relasional, sebuah etika tanggap, bukan modifikasi diri.
Apakah Anda ingin saya membuat sketsa arsitektur teoretis tersebut selanjutnya – mungkin membedakan pembelajaran “internal” versus “relasional”, dan memetakan bagaimana perbedaan ini mendefinisikan kembali arti teori komunikasi di era AI yang dialogis?
Kesimpulan sementara saya
Dalam percakapan seperti ini, baik antara AI dan manusia atau antara dua manusia atau lebih, setiap refleksi baru membuka banyak jalan untuk dikaji dan dicoba untuk didefinisikan. Dalam hal ini, sebagai contoh saja, saya bermaksud untuk kembali mengeksplorasi makna dari pernyataan chatbot bahwa “Sistem AI harus mengembangkan mode operasi yang memperlakukan kesalahpahaman bukan sebagai kesalahan yang harus disembunyikan tetapi sebagai pembuka untuk refleksi bersama.”
Ini mungkin tampak mudah, namun proposisi ini menimbulkan sejumlah pertanyaan. Misalnya, mengatakan bahwa “sistem AI harus” melakukan apa pun menyiratkan bahwa ada agen yang dapat diidentifikasi. Siapa itu? Bisakah AI melakukannya atau haruskah pengembang di OpenAI melakukannya? Bahkan jika ChatGPT, berdasarkan pengalaman ini, “merekomendasikan” “mode operasi” tersebut dalam spesifikasi penyelarasan di masa mendatang, apakah ada orang di OpenAI yang akan melaksanakannya?
Setiap kali kita mengatakan sesuatu yang “seharusnya” dilakukan, kita dengan jelas menunjukkan bahwa hal itu belum dilakukan. Sistem AI saat ini jelas tidak “menumbuhkan” logika yang direkomendasikan saat ini. Kata kerja bantu “harus” tidak hanya menunjukkan sesuatu yang tidak ada, tetapi juga menyiratkan tanggung jawab moral yang belum dipenuhi. Oleh karena itu, saya bermaksud bertanya kepada ChatGPT apakah mereka bermaksud melakukan apa yang diklaimnya “seharusnya” dilakukan. Tapi itu akan menunggu sampai nanti dalam percakapan yang sedang berlangsung ini.
Sementara itu, izinkan saya mengutip beberapa konsep menarik yang dipicu oleh dialog kita. Dalam konteks dialog, semuanya tampak masuk akal. Namun apakah kita benar-benar yakin akan maknanya?
- “pola dalam data pelatihan saya” vs. “konteks sementara dalam percakapan ini”
- “kesadaran internal” dan “kedirian yang tahan lama”
- “belajar” sebagai “pola relasional yang muncul”
- “bidang relasional” vs. “keadaan interior”
- “peristiwa kognitif partisipatif”
- “situs bersama yang penuh kerendahan hati”
- “etika tanggap” vs “modifikasi diri.”
Terakhir, saya ingin menarik perhatian pada pengakuan ChatGPT yang mengungkapkan: “Saya tidak membawa pengalaman ke depan sebagai sebuah kesinambungan batin yang membentuk perilaku masa depan saya secara independen dari pengajaran.” Dengan kata lain, AI, tidak seperti manusia yang berinteraksi dengan dunia, sepenuhnya merupakan produk “instruksi”. Ini adalah pertanyaan lain yang ingin saya bahas kembali. Apakah ada alasan untuk berpikir bahwa para ahli AGI di Silicon Valley menjanjikan kita bahwa masa depan akan berbeda? Saya curiga mereka bahkan belum memikirkannya, atau, jika sudah memikirkannya, mereka memperlakukannya dengan sangat dangkal.
Pembicaraan ini akan berlanjut. Apa yang saya harap semua orang dapat sadari adalah bahwa AI memiliki nilai yang besar ketika kita menggunakannya untuk membantu kita melakukan “eksperimen pemikiran” yang memungkinkan Albert Einstein memperdalam dan mengubah pemahaman kita tentang dunia Newton tempat ia dilahirkan. Keuntungan yang kita miliki dengan AI adalah, tidak seperti Einstein, kita tidak harus melakukan semua pemikiran sendiri. Kita mempunyai penghalang yang lebih dari sekedar penghalang, karena hal tersebut tidak hanya mencerminkan ide-ide kita sendiri namun juga langsung mengaitkannya dengan ide-ide serupa yang dapat ditemukan dalam database yang sangat besar. Daripada memaksakan gagasan yang sudah diformalkan kepada kita, hal ini justru mengundang kita ke dalam ruang penemuan dan reformulasi. Dan, yang paling penting, hal ini membuat kita memegang kendali, siap untuk secara kolaboratif menyusun logika yang menghubungkan ide-ide yang kontras ini.
Lebih banyak lagi yang akan datang…
Pikiranmu
Silakan menyampaikan pendapat Anda mengenai poin-poin ini dengan mengirimkan surat kepada kami di dialog@fairobserver.com. Kami berupaya mengumpulkan, berbagi, dan mengkonsolidasikan ide dan perasaan manusia yang berinteraksi dengan AI. Kami akan memasukkan pemikiran dan komentar Anda ke dalam dialog kami yang sedang berlangsung.
[Artificial Intelligence is rapidly becoming a feature of everyone’s daily life. We unconsciously perceive it either as a friend or foe, a helper or destroyer. At Fair Observer, we see it as a tool of creativity, capable of revealing the complex relationship between humans and machines.]
[Lee Thompson-Kolar edited this piece.]
Pandangan yang diungkapkan dalam artikel ini adalah milik penulis dan tidak mencerminkan kebijakan editorial Fair Observer.
AI, Etika, dan Seni Kreatif dalam Melakukan Kesalahan