Skip to content

Ilmuwan membuat game online untuk menunjukkan risiko pengenalan emosi AI

📅 April 05, 2021

⏱️3 min read

Publik dapat mencoba menarik wajah untuk mengelabui teknologi, sementara kritikus menyoroti masalah hak asasi manusia

Sebuah game di situs Emojify, yang mendemonstrasikan teknologi pengenalan emosi AI

Sebuah game di situs Emojify, yang mendemonstrasikan teknologi pengenalan emosi AI. Foto: Universitas Cambridge / PA

Ini adalah teknologi yang tidak disukai oleh para ahli etika: sekarang para peneliti berharap untuk mengungkap realitas sistem pengenalan emosi dalam upaya untuk meningkatkan debat publik.

Teknologi yang dirancang untuk mengidentifikasi emosi manusia menggunakan algoritme pembelajaran mesin adalah industri yang sangat besar, dengan klaim bahwa teknologi tersebut dapat terbukti berharga dalam berbagai situasi, mulai dari keselamatan di jalan raya hingga riset pasar. Namun para kritikus mengatakan teknologi itu tidak hanya menimbulkan masalah privasi, tetapi juga tidak akurat dan bias rasial .

Sebuah tim peneliti telah membuat situs web - emojify.info - tempat publik dapat mencoba sistem pengenalan emosi melalui kamera komputer mereka sendiri. Satu permainan berfokus pada menarik wajah untuk mengelabui teknologi, sementara yang lain mengeksplorasi bagaimana sistem seperti itu dapat kesulitan membaca ekspresi wajah dalam konteks.

Harapan mereka, kata para peneliti, adalah untuk meningkatkan kesadaran akan teknologi dan mempromosikan percakapan tentang penggunaannya.

“Ini adalah bentuk pengenalan wajah, tetapi lebih jauh karena alih-alih hanya mengidentifikasi orang, ia mengklaim membaca emosi kita, perasaan batin kita dari wajah kita,” kata Dr Alexa Hagerty, pemimpin proyek dan peneliti di Universitas Cambridge Leverhulme Pusat untuk Masa Depan Intelijen dan Pusat Studi Risiko Eksistensial.

Teknologi pengenalan wajah, yang sering digunakan untuk mengidentifikasi orang, telah menjadi sorotan dalam beberapa tahun terakhir . Tahun lalu, Komisi Kesetaraan dan Hak Asasi Manusia mengatakan penggunaannya untuk penyaringan massal harus dihentikan, dengan alasan hal itu dapat meningkatkan diskriminasi polisi dan membahayakan kebebasan berekspresi.

Tetapi Hagerty mengatakan banyak orang tidak menyadari seberapa umum sistem pengenalan emosi, mencatat bahwa mereka digunakan dalam berbagai situasi mulai dari perekrutan pekerjaan, hingga pekerjaan wawasan pelanggan, keamanan bandara, dan bahkan pendidikan untuk melihat apakah siswa terlibat atau melakukan pekerjaan rumah mereka.

Teknologi semacam itu, katanya, digunakan di seluruh dunia, dari Eropa hingga AS dan China. Taigusys, sebuah perusahaan yang berspesialisasi dalam sistem pengenalan emosi dan yang berkantor pusat di Shenzhen, mengatakan telah menggunakannya dalam pengaturan mulai dari rumah perawatan hingga penjara, sementara menurut laporan awal tahun ini , kota Lucknow di India berencana untuk menggunakan teknologi untuk menemukan tekanan pada wanita sebagai akibat dari pelecehan - sebuah langkah yang menuai kritik, termasuk dari organisasi hak digital.

Sementara Hagerty mengatakan bahwa teknologi pengenalan emosi mungkin memiliki beberapa manfaat potensial, hal ini harus dipertimbangkan terhadap kekhawatiran seputar akurasi, bias rasial, serta apakah teknologi itu bahkan alat yang tepat untuk pekerjaan tertentu.

“Kita perlu melakukan percakapan dan pertimbangan publik yang lebih luas tentang teknologi ini,” katanya.

Proyek baru ini memungkinkan pengguna untuk mencoba teknologi pengenalan emosi. Situs tersebut mencatat bahwa "tidak ada data pribadi yang dikumpulkan dan semua gambar disimpan di perangkat Anda". Dalam satu game, pengguna diundang untuk menarik serangkaian wajah ke emosi palsu dan melihat apakah sistemnya tertipu.

“Klaim orang yang mengembangkan teknologi ini adalah membaca emosi,” kata Hagerty. Namun, tambahnya, pada kenyataannya sistem itu membaca gerakan wajah dan kemudian menggabungkannya dengan asumsi bahwa gerakan tersebut terkait dengan emosi - misalnya senyuman berarti seseorang bahagia.

“Ada banyak ilmu yang benar-benar solid yang mengatakan bahwa itu terlalu sederhana; tidak berhasil seperti itu, ”kata Hagerty, menambahkan bahwa bahkan hanya pengalaman manusia saja yang menunjukkan kemungkinan untuk memalsukan senyuman. "Itulah permainan itu: untuk menunjukkan bahwa Anda tidak mengubah keadaan batin Anda enam kali dengan cepat, Anda hanya mengubah cara Anda memandang [pada] wajah Anda," katanya.

Beberapa peneliti pengenalan emosi mengatakan bahwa mereka menyadari keterbatasan tersebut . Namun Hagerty berharap proyek baru, yang didanai oleh Nesta (National Endowment for Science, Technology and the Arts), akan meningkatkan kesadaran akan teknologi dan mendorong diskusi seputar penggunaannya.

“Saya pikir kita mulai menyadari bahwa kita sebenarnya bukan 'pengguna' teknologi, kita adalah warga dunia yang dibentuk secara mendalam oleh teknologi, jadi kita perlu memiliki jenis masukan demokratis berbasis warga yang sama pada teknologi ini seperti yang kita miliki tentang hal-hal penting lainnya dalam masyarakat, ”katanya.

Vidushi Marda, pejabat program senior di organisasi hak asasi manusia Pasal 19 mengatakan sangat penting untuk menekan "jeda" di pasar yang sedang tumbuh untuk sistem pengenalan emosi.

“Penggunaan teknologi pengenalan emosi sangat memprihatinkan karena tidak hanya sistem ini didasarkan pada sains yang diskriminatif dan terdiskreditkan, penggunaannya juga pada dasarnya tidak sesuai dengan hak asasi manusia,” katanya. “Pembelajaran penting dari lintasan sistem pengenalan wajah di seluruh dunia adalah mempertanyakan validitas dan kebutuhan teknologi sejak dini dan sering - dan proyek yang menekankan pada batasan dan bahaya pengenalan emosi merupakan langkah penting ke arah itu.”

← PrevNext →
  • Powered by Daily Planet News