AI Kuat Google Menyoroti Gangguan Kognitif Manusia: Mengira Pidato Lancar untuk Pemikiran Lancar | Siger Lampung Teknologi

Ketika Anda membaca kalimat seperti ini, pengalaman masa lalu Anda memberi tahu Anda bahwa itu ditulis oleh manusia yang berpikir dan merasa. Dan, dalam hal ini, memang ada manusia yang mengetik kata-kata ini: [Hi, there!] Namun belakangan ini, beberapa kalimat yang tampak sangat mirip manusia sebenarnya dihasilkan oleh sistem kecerdasan buatan yang dilatih pada sejumlah besar teks manusia.

Orang-orang begitu terbiasa dengan asumsi bahwa bahasa yang fasih berasal dari pemikiran, perasaan manusia bahwa bukti sebaliknya bisa sulit untuk membungkus kepala Anda. Bagaimana kemungkinan orang menavigasi wilayah yang relatif belum dipetakan ini? Karena kecenderungan terus-menerus untuk mengasosiasikan ekspresi fasih dengan pemikiran yang lancar, wajar – tetapi berpotensi menyesatkan – untuk berpikir bahwa jika model AI dapat mengekspresikan dirinya dengan lancar, itu berarti ia berpikir dan merasakan seperti yang dilakukan manusia.

Jadi, mungkin tidak mengherankan bahwa seorang mantan insinyur Google baru-baru ini mengklaim bahwa sistem AI Google, LaMDA, memiliki kesadaran diri karena dapat dengan fasih menghasilkan teks tentang perasaan yang diklaim. Peristiwa ini dan liputan media berikutnya menyebabkan sejumlah artikel dan posting yang skeptis tentang klaim bahwa model komputasi bahasa manusia adalah makhluk hidup, artinya mampu berpikir dan merasakan dan mengalami.

Bacaan Lainnya

Pertanyaan tentang apa artinya model AI menjadi hidup itu rumit (lihat, misalnya, pendapat rekan kami), dan tujuan kami di sini bukan untuk menyelesaikannya. Tetapi sebagai peneliti bahasa, kita dapat menggunakan pekerjaan kita dalam ilmu kognitif dan linguistik untuk menjelaskan mengapa manusia mudah sekali jatuh ke dalam perangkap pemikiran kognitif bahwa suatu entitas yang dapat menggunakan bahasa dengan lancar adalah makhluk hidup, sadar, atau cerdas.

Menggunakan AI untuk menghasilkan bahasa yang mirip manusia

Teks yang dihasilkan oleh model seperti LaMDA Google mungkin sulit dibedakan dari teks yang ditulis oleh manusia. Pencapaian yang mengesankan ini adalah hasil dari program selama puluhan tahun untuk membangun model yang menghasilkan bahasa yang gramatikal dan bermakna.

Versi awal yang berasal dari setidaknya tahun 1950-an, yang dikenal sebagai model n-gram, hanya menghitung kemunculan frasa tertentu dan menggunakannya untuk menebak kata apa yang mungkin muncul dalam konteks tertentu. Misalnya, mudah untuk mengetahui bahwa “selai kacang dan jeli” adalah frasa yang lebih mungkin daripada “selai kacang dan nanas.” Jika Anda memiliki cukup teks bahasa Inggris, Anda akan melihat frasa “selai kacang dan jeli” berulang kali tetapi mungkin tidak akan pernah melihat frasa “selai kacang dan nanas.” Model hari ini, kumpulan data dan aturan yang mendekati bahasa manusia, berbeda dari upaya awal ini dalam beberapa hal penting. Pertama, mereka dilatih pada dasarnya seluruh Internet. Kedua, mereka dapat mempelajari hubungan antar kata yang berjauhan, bukan hanya kata yang bertetangga. Ketiga, mereka disetel oleh sejumlah besar “kenop” internal – begitu banyak sehingga sulit bahkan bagi para insinyur yang mendesainnya untuk memahami mengapa mereka menghasilkan satu urutan kata daripada yang lain.

Tugas model, bagaimanapun, tetap sama seperti pada 1950-an: menentukan kata mana yang mungkin muncul berikutnya. Hari ini, mereka sangat mahir dalam tugas ini sehingga hampir semua kalimat yang mereka hasilkan tampak cair dan gramatikal.

Selai kacang dan nanas?

Kami meminta model bahasa besar, GPT-3, untuk melengkapi kalimat “Selai kacang dan nanas___”. Dikatakan: “Selai kacang dan nanas adalah kombinasi yang hebat. Rasa manis dan gurih dari selai kacang dan nanas saling melengkapi dengan sempurna.” Jika seseorang mengatakan ini, orang mungkin menyimpulkan bahwa mereka telah mencoba selai kacang dan nanas bersama, membentuk opini dan membagikannya kepada pembaca.

Tapi bagaimana GPT-3 muncul dengan paragraf ini? Dengan menghasilkan kata yang sesuai dengan konteks yang kami sediakan. Dan kemudian satu lagi. Dan kemudian satu lagi. Model itu tidak pernah melihat, menyentuh, atau mencicipi nanas – ia hanya memproses semua teks di Internet yang menyebutkannya. Namun membaca paragraf ini dapat mengarahkan pikiran manusia – bahkan seorang insinyur Google – untuk membayangkan GPT-3 sebagai makhluk cerdas yang dapat menalar tentang selai kacang dan hidangan nanas.

Otak manusia dirancang untuk menyimpulkan niat di balik kata-kata. Setiap kali Anda terlibat dalam percakapan, pikiran Anda secara otomatis membangun model mental dari mitra percakapan Anda. Anda kemudian menggunakan kata-kata yang mereka ucapkan untuk mengisi model dengan tujuan, perasaan, dan keyakinan orang tersebut.

Proses melompat dari kata-kata ke model mental mulus, dipicu setiap kali Anda menerima kalimat yang lengkap. Proses kognitif ini menghemat banyak waktu dan tenaga dalam kehidupan sehari-hari, sangat memudahkan interaksi sosial Anda.

Namun, dalam kasus sistem AI, itu salah sasaran – membangun model mental dari udara tipis.

Penyelidikan lebih lanjut dapat mengungkapkan tingkat keparahan macet ini. Pertimbangkan prompt berikut: “Selai kacang dan bulu terasa enak bersama karena___”. GPT-3 melanjutkan: “Selai kacang dan bulunya terasa enak bersama karena keduanya memiliki rasa pedas. Selai kacang juga halus dan lembut, yang membantu mengimbangi tekstur bulu.” Teks dalam kasus ini selancar contoh kita dengan nanas, tapi kali ini modelnya mengatakan sesuatu yang kurang masuk akal. Orang mulai curiga bahwa GPT-3 tidak pernah benar-benar mencoba selai kacang dan bulu.

Menganggap kecerdasan pada mesin, menyangkalnya pada manusia Ironi yang menyedihkan adalah bahwa bias kognitif yang sama yang membuat orang menganggap manusia sebagai GPT-3 dapat menyebabkan mereka memperlakukan manusia sebenarnya dengan cara yang tidak manusiawi. Linguistik sosiokultural – studi tentang bahasa dalam konteks sosial dan budayanya – menunjukkan bahwa mengasumsikan hubungan yang terlalu erat antara ekspresi yang lancar dan pemikiran yang lancar dapat menyebabkan bias terhadap orang yang berbicara secara berbeda.

Misalnya, orang-orang dengan aksen asing sering dianggap kurang cerdas dan kecil kemungkinannya untuk mendapatkan pekerjaan yang sesuai dengan kualifikasi mereka. Bias serupa ada terhadap penutur dialek yang tidak dianggap bergengsi, seperti bahasa Inggris Selatan di AS, terhadap orang tuli yang menggunakan bahasa isyarat dan terhadap orang dengan hambatan bicara seperti gagap.

Bias-bias ini sangat berbahaya, seringkali mengarah pada asumsi rasis dan seksis, dan berulang kali terbukti tidak berdasar.

Bahasa yang fasih saja tidak menyiratkan kemanusiaan Akankah AI menjadi makhluk hidup? Pertanyaan ini membutuhkan pertimbangan yang mendalam, dan memang para filsuf telah merenungkannya selama beberapa dekade. Apa yang telah ditentukan oleh para peneliti, bagaimanapun, adalah bahwa Anda tidak bisa begitu saja mempercayai model bahasa ketika model itu memberi tahu Anda bagaimana rasanya. Kata-kata bisa menyesatkan, dan terlalu mudah untuk salah mengartikan ucapan yang lancar sebagai pemikiran yang lancar.


Pos terkait

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *