Profesor Universitas Toronto Geoffrey Hinton, sering disebut “Godfather of AI” untuk penelitian perintisnya pada jaringan saraf, baru-baru ini menjadi pengawas tidak resmi industri. Dia berhenti bekerja di Google musim semi ini untuk lebih bebas mengkritik bidang yang dia bantu rintis. Dia melihat lonjakan AI generatif baru-baru ini seperti ChatGPT dan Bing Chat sebagai tanda percepatan pengembangan yang tidak terkendali dan berpotensi berbahaya. Google, sementara itu, tampaknya melepaskan pengekangan sebelumnya karena mengejar pesaing dengan produk seperti chatbot Bard-nya.

Pada konferensi Collision minggu ini di Toronto, Hinton memperluas keprihatinannya. Sementara perusahaan menggembar-gemborkan AI sebagai solusi untuk segala hal mulai dari mendapatkan sewa hingga pengiriman barang, Hinton membunyikan alarm. Dia tidak yakin AI yang baik akan muncul sebagai pemenang atas variasi yang buruk, dan dia yakin adopsi AI secara etis mungkin membutuhkan biaya yang mahal.

Ancaman bagi kemanusiaan

Profesor Universitas Toronto Geoffrey Hinton (kiri) berbicara di Collision 2023.

Foto oleh Jon Fingas/Engadget

Hinton berpendapat bahwa AI hanya sebagus orang yang membuatnya, dan teknologi yang buruk itu masih bisa menang. “Saya tidak yakin bahwa AI bagus yang mencoba menghentikan hal buruk bisa saya kendalikan,” jelasnya. Mungkin sulit untuk menghentikan kompleks industri militer dari memproduksi robot perang, misalnya, katanya – perusahaan dan tentara mungkin “menyukai” perang di mana korbannya adalah mesin yang dapat dengan mudah diganti. Dan sementara Hinton percaya bahwa model bahasa besar (AI terlatih yang menghasilkan teks seperti manusia, seperti GPT-4 OpenAI) dapat menyebabkan peningkatan besar dalam produktivitas, dia khawatir bahwa kelas penguasa mungkin hanya mengeksploitasi ini untuk memperkaya diri mereka sendiri, memperluas yang sudah ada. kesenjangan kekayaan yang besar. Itu akan “membuat yang kaya semakin kaya dan yang miskin semakin miskin,” kata Hinton.

Hinton juga menegaskan kembali pandangannya yang banyak dipublikasikan bahwa AI dapat menimbulkan risiko eksistensial bagi umat manusia. Jika kecerdasan buatan menjadi lebih pintar dari manusia, tidak ada jaminan bahwa manusia akan tetap memegang kendali. “Kami dalam masalah” jika AI memutuskan bahwa mengambil kendali diperlukan untuk mencapai tujuannya, kata Hinton. Baginya, ancaman tersebut “bukan hanya fiksi ilmiah;” mereka harus ditanggapi dengan serius. Dia khawatir bahwa masyarakat hanya akan mengekang robot pembunuh setelah memiliki kesempatan untuk melihat “betapa buruknya” mereka.

Ada banyak masalah yang ada, tambah Hinton. Dia berpendapat bahwa bias dan diskriminasi tetap menjadi masalah, karena data pelatihan AI yang miring dapat menghasilkan hasil yang tidak adil. Algoritma juga menciptakan ruang gema yang memperkuat informasi yang salah dan masalah kesehatan mental. Hinton juga khawatir tentang AI yang menyebarkan informasi yang salah di luar kamar tersebut. Dia tidak yakin apakah mungkin untuk menangkap setiap klaim palsu, meskipun “penting untuk menandai semua yang palsu sebagai palsu.”

Ini bukan untuk mengatakan bahwa Hinton putus asa atas dampak AI, meskipun dia memperingatkan bahwa penggunaan teknologi yang sehat mungkin harus dibayar mahal. Manusia mungkin harus melakukan “pekerjaan empiris” untuk memahami bagaimana AI bisa salah, dan untuk mencegahnya merebut kendali. Ini sudah “bisa dilakukan” untuk mengoreksi bias, tambahnya. AI model bahasa besar mungkin mengakhiri ruang gema, tetapi Hinton melihat perubahan dalam kebijakan perusahaan sebagai hal yang sangat penting.

Profesor itu tidak berbasa-basi dalam menjawab pertanyaan tentang orang-orang yang kehilangan pekerjaan karena otomatisasi. Dia merasa bahwa “sosialisme” diperlukan untuk mengatasi ketidaksetaraan, dan bahwa orang dapat menghindari pengangguran dengan mengambil karir yang dapat berubah seiring waktu, seperti pipa ledeng (dan tidak, dia tidak bercanda). Secara efektif, masyarakat mungkin harus membuat perubahan luas untuk beradaptasi dengan AI.

Industri tetap optimis

Google DeepMind CBO Colin Murdoch di Tabrakan 2023.

Foto oleh Jon Fingas/Engadget

Pembicaraan sebelumnya di Tabrakan lebih penuh harapan. Kepala bisnis Google DeepMind Colin Murdoch mengatakan dalam diskusi berbeda bahwa AI sedang memecahkan beberapa tantangan terberat di dunia. Tidak banyak perselisihan di bagian depan ini — DeepMind membuat katalog setiap protein yang dikenal, melawan bakteri yang kebal antibiotik, dan bahkan mempercepat pekerjaan pada vaksin malaria. Dia membayangkan “kecerdasan umum buatan” yang dapat memecahkan banyak masalah, dan menunjuk produk Google sebagai contoh. Lookout berguna untuk mendeskripsikan foto, tetapi teknologi dasarnya juga membuat YouTube Shorts dapat ditelusuri. Murdoch melangkah lebih jauh dengan menyebut enam hingga 12 bulan terakhir sebagai “momen bola lampu” untuk AI yang membuka potensinya.

Kepala Ilmuwan Roblox Morgan McGuire sebagian besar setuju. Dia percaya alat AI generatif platform game “menutup celah” antara pencipta baru dan veteran, membuatnya lebih mudah untuk menulis kode dan membuat materi dalam game. Roblox bahkan merilis model AI open source, StarCoder, yang diharapkan dapat membantu orang lain dengan membuat model bahasa besar lebih mudah diakses. Sementara McGuire dalam sebuah diskusi mengakui tantangan dalam penskalaan dan memoderasi konten, dia yakin metaverse memiliki kemungkinan “tak terbatas” berkat kumpulan kreatifnya.

Baik Murdoch maupun McGuire mengungkapkan keprihatinan yang sama seperti Hinton, tetapi nada bicara mereka tidak terlalu mengkhawatirkan. Murdoch menekankan bahwa DeepMind menginginkan AI yang “aman, etis, dan inklusif”, dan menunjuk konsultasi ahli dan investasi pendidikan sebagai bukti. Eksekutif bersikeras dia terbuka untuk regulasi, tetapi hanya selama itu memungkinkan “terobosan luar biasa”. Pada gilirannya, McGuire mengatakan Roblox selalu meluncurkan alat AI generatif dengan moderasi konten, mengandalkan kumpulan data yang beragam, dan mempraktikkan transparansi.

Beberapa harapan untuk masa depan

Kepala Ilmuwan Roblox Morgan McGuire berbicara di Collision 2023.

Foto oleh Jon Fingas/Engadget

Terlepas dari berita utama yang meringkas komentarnya baru-baru ini, antusiasme Hinton secara keseluruhan terhadap AI tidak berkurang setelah meninggalkan Google. Jika dia tidak berhenti, dia yakin dia akan mengerjakan model AI multi-modal di mana penglihatan, bahasa, dan isyarat lain membantu menginformasikan keputusan. “Anak-anak kecil tidak hanya belajar dari bahasa saja,” katanya, menunjukkan bahwa mesin juga dapat melakukan hal yang sama. Betapapun khawatirnya dia tentang bahaya AI, dia yakin itu pada akhirnya bisa melakukan apa saja yang bisa dilakukan manusia dan sudah menunjukkan “sedikit penalaran”. GPT-4 dapat menyesuaikan diri untuk memecahkan teka-teki yang lebih sulit, misalnya.

Hinton mengakui bahwa pembicaraan Tabrakannya tidak banyak berbicara tentang penggunaan AI yang baik, seperti memerangi perubahan iklim. Kemajuan teknologi AI kemungkinan besar sehat, meskipun masih penting untuk mengkhawatirkan implikasinya. Dan Hinton dengan bebas mengakui bahwa antusiasmenya tidak berkurang meski masalah etika dan moral membayangi. “Saya suka barang ini,” katanya. “Bagaimana mungkin kamu tidak suka membuat hal-hal yang cerdas?”