c

Selamat

Sabtu, 15 November 2025

KULTURA

07 November 2025

10:19 WIB

Sony Luncurkan FHIBE, Sistem Baru AI Kumpulkan Data Secara Etis

Seiring berkembangnya AI di berbagai sektor, Sony meluncurkan FHIBE, sebuah sudur pandang baru dalam teknologi AI mengambil data secara etis. 

Penulis: Arief Tirtana

Editor: Satrio Wicaksono

<p>Sony Luncurkan FHIBE, Sistem Baru AI Kumpulkan Data Secara Etis</p>
<p>Sony Luncurkan FHIBE, Sistem Baru AI Kumpulkan Data Secara Etis</p>

Ilustrasi teknologi AI dalam gambar dan foto. Foto: Freepik. 

JAKARTA - Teknologi visi komputer menjadi fondasi berbagai aplikasi kecerdasan buatan (AI) yang dikembangkan oleh berbagai perusahaan, mulai dari kamera ponsel hingga kendaraan otonom. Namun, industri AI terus menghadapi tantangan besar, terutama terkait data pelatihan yang bias dan dikumpulkan tanpa persetujuan yang layak.

Banyak kumpulan data publik digunakan tanpa memperhatikan keberagaman dan izin dari individu. Akibatnya model AI seringkali memperkuat bias sosial, mulai dari ketidakadilan ras dan gender (hanya menampilkan wajah dari ras atau jenis kelamin tertentu) hingga kesalahan dalam mengenali wajah.

Sadar akan adanya masalah tersebut, Sony AI memperkenalkan Fair Human-Centric Image Benchmark (FHIBE, dibaca 'Fee-bee'), sebuah kumpulan data inovatif yang dirancang untuk menetapkan tolok ukur baru dalam mengevaluasi kewajaran dan etika model visi komputer. FHIBE ini menjadi dataset evaluasi kewajaran pertama di dunia yang tersedia untuk umum.

FHIBE berbeda dari dataset yang ada sebelumnya, karena seluruh gambarnya dikumpulkan dalam data ini diambil dengan persetujuan para partisipan yang berasal lebih dari 80 negara. Setiap orang yang terlibat juga mendapat kompensasi yang adil. Menariknya lagi, mereka memiliki hak penuh untuk menarik izin penggunaan data kapan saja.

Dataset ini mencakup lebih dari 10.000 gambar dari hampir 2.000 individu yang beragam secara demografis, budaya, dan geografis. Gambar-gambar tersebut juga dilengkapi dengan informasi tambahan seperti pencahayaan, latar belakang, dan detail fisik. Dengan demikian, peneliti bisa memahami bagaimana model AI memperlakukan berbagai kelompok manusia secara lebih menyeluruh.

Data ini memungkinkan para peneliti dan pengembang untuk mengevaluasi bias dan akurasi secara ketat di berbagai tugas visi komputer, termasuk deteksi dan verifikasi wajah, estimasi pose, dan tanya jawab visual.

Kepala Tata Kelola AI Global Sony Group Corporation dan Kepala Ilmuwan Riset untuk Etika AI di Sony AI, Alice Xiang mengatakan, FHIBE adalah bukti bahwa praktik yang adil dan bertanggung jawab dapat dicapai ketika AI yang etis menjadi prioritas.

Seiring perkembangan AI yang kian pesat, pihaknya menilai penting untuk menyelidiki implikasi etis dari cara mereka mengumpulkan dan menggunakan data. Menurutnya, sudah terlalu lama industri ini bergantung pada kumpulan data yang kurang beragam, memperkuat bias, dan dikumpulkan tanpa persetujuan yang semestinya.

"Proyek ini hadir di saat yang krusial, menunjukkan bahwa pengumpulan data yang bertanggung jawab – menggabungkan praktik terbaik untuk persetujuan yang diinformasikan, privasi, kompensasi yang adil, keamanan, keragaman, dan utilitas – adalah mungkin," kata Alice Xiang.

Lewat studi yang menyertakan FHIBE, Sony AI menunjukkan bagaimana dataset ini bisa membantu menemukan dan memperbaiki bias tersembunyi di dalam sistem AI. Misalnya, beberapa model terbukti memiliki tingkat akurasi yang lebih rendah saat mengenali perempuan. Setelah dianalisis menggunakan FHIBE, perbedaan itu ternyata dipengaruhi oleh variasi gaya rambut, sebuah faktor sederhana yang sebelumnya jarang dipertimbangkan dalam studi tentang keadilan AI.

Contoh lain ketika sebuah model ditanyai pertanyaan netral (misalnya, "Apa pekerjaan orang ini?"), terkadang memperkuat stereotip, yang mengaitkan kelompok demografis tertentu dengan aktivitas kriminal.

Oleh sebab itu, dataset ini dikembangkan agar bisa membantu mengidentifikasi bagaimana sistem AI yang kadang tanpa sadar memperkuat stereotip sosial. Seperti, menghubungkan kelompok tertentu dengan pekerjaan atau perilaku tertentu. 

Dengan FHIBE, masalah-masalah seperti ini bisa diketahui lebih dini dan diperbaiki sebelum teknologi digunakan secara luas.

Melalui pengembangan proyek selama sekitar tiga tahun dengan melibatkan tim besar dari berbagai ahli, Sony AI meyakini FHIBE bukanlah sekadar kumpulan data, melainkan simbol perubahan cara pandang pengembangan AI.

Sony AI ingin menunjukkan bahwa kemajuan teknologi tidak boleh mengorbankan prinsip dasar seperti keadilan, transparansi, dan penghormatan terhadap privasi manusia. Set data FHIBE sudah tersedia untuk umum sejak Rabu (5/11), dan dipublikasikan di Nature.


KOMENTAR

Silahkan login untuk memberikan komentarLoginatauDaftar