Kecerdasan buatan mencerminkan dunia di sekitar kita, dan itulah tantangannya
Artificial Intelligence

Kecerdasan buatan mencerminkan dunia di sekitar kita, dan itulah tantangannya

Pengembang dan ilmuwan data adalah manusia, tentu saja, tetapi sistem yang mereka buat tidak — mereka hanyalah refleksi berbasis kode dari penalaran manusia yang masuk ke dalamnya. Mendapatkan sistem kecerdasan buatan untuk memberikan hasil yang adil dan tidak memihak, serta memastikan keputusan bisnis yang tepat, memerlukan pendekatan holistik yang melibatkan sebagian besar perusahaan. Staf TI dan ilmuwan data tidak dapat — dan tidak boleh — diharapkan menjadi tindakan tunggal dalam hal AI.

bangunan-dengan-mawar-new-york-city-march-2021-photo-by-joe-mckendrick.jpg

Foto: Joe McKendrick

Ada dorongan yang berkembang untuk memperluas AI di luar testbeds dan batas-batas pengembangan sistem dan ke dalam rangkaian bisnis. Misalnya, pada panel baru-baru ini di AI Summit, yang diadakan di New York pada bulan Desember 2021, panelis sepakat bahwa para pemimpin dan manajer bisnis tidak hanya perlu mempertanyakan kualitas keputusan yang disampaikan melalui AI, tetapi juga terlibat lebih aktif dalam perumusannya. (Saya ikut memimpin konferensi dan memoderasi panel.) Perlu ada cara yang sistematis untuk membuka proses pengembangan dan pemodelan AI, kata Rod Butters, chief technology officer untuk Aible. “Ketika kami memberi tahu para ilmuwan data untuk keluar dan membuat model, kami meminta mereka untuk menjadi pembaca pikiran dan peramal,” katanya. “Ilmuwan data mencoba melakukan hal yang benar, menciptakan model yang bertanggung jawab dan solid, tetapi berdasarkan apa? Pada akhirnya ketika mereka membangun sebuah model, kecuali jika mereka memiliki kombinasi ini untuk menciptakan transparansi, membuat perluasan, benar-benar mengomunikasikannya ke konstituen bisnis baik secara strategis maupun taktis, siapa yang bertanggung jawab? Menciptakan model yang hebat saja tidak serta merta menyelesaikan semua masalah.”

Jadi bagaimana kita memperbaiki situasi yang dijelaskan Butters, dan mengatasi potensi bias atau ketidakakuratan? Jelas, ini adalah tantangan yang perlu ditangani di seluruh spektrum kepemimpinan perusahaan. TI, yang hingga saat ini telah membawa sebagian besar bobot AI, tidak dapat melakukannya sendiri. Para ahli di seluruh industri mendesak untuk membuka pengembangan AI untuk lebih banyak keterlibatan manusia. “Menempatkan beban pada para pemimpin dan staf TI adalah secara keliru menggeneralisasi serangkaian masalah etika, reputasi, dan hukum yang substansial di seluruh organisasi untuk masalah teknis,” kata Reid Blackman, CEO Kebajikan dan penasihat Bizconnect. “Bias dalam AI bukan semata-mata masalah teknis; itu terjalin di seluruh departemen.”

Hingga saat ini, belum cukup banyak yang dilakukan untuk memerangi bias AI, lanjut Blackman. “Meskipun perhatian pada algoritme bias, upaya untuk memecahkannya cukup minim. Pendekatan standar — selain tidak melakukan apa-apa, tentu saja — adalah dengan menggunakan berbagai alat yang melihat bagaimana berbagai macam barang dan jasa didistribusikan di beberapa subpopulasi, yang paling mencolok termasuk kelompok yang berkaitan dengan ras dan jenis kelamin; atau gunakan berbagai metrik kuantitatif untuk menentukan apakah distribusinya adil atau bias.”

Menghilangkan bias dan ketidakakuratan dalam AI membutuhkan waktu. “Sebagian besar organisasi memahami bahwa keberhasilan AI bergantung pada membangun kepercayaan dengan pengguna akhir sistem ini, yang pada akhirnya membutuhkan algoritme AI yang adil dan tidak memihak,” kata Peter Oggel, CTO dan wakil presiden senior operasi teknologi di Irdeto. Namun, menyampaikan hal ini jauh lebih rumit daripada sekadar mengakui adanya masalah dan membicarakannya.”

Lebih banyak tindakan diperlukan di luar batas pusat data atau situs analis. “Ilmuwan data tidak memiliki pelatihan, pengalaman, dan kebutuhan bisnis untuk menentukan metrik mana yang tidak kompatibel untuk keadilan yang sesuai,” kata Blackman. “Selain itu, mereka sering kurang memiliki pengaruh untuk mengangkat kekhawatiran mereka kepada eksekutif senior yang berpengetahuan luas atau pakar materi pelajaran yang relevan.”

Saatnya untuk berbuat lebih banyak “untuk meninjau hasil tersebut tidak hanya saat produk ditayangkan, tetapi selama pengujian dan setelah proyek signifikan apa pun,” kata Patrick Finn, presiden dan manajer umum Amerika di Blue Prism. “Mereka juga harus melatih staf teknis dan sisi bisnis tentang cara mengurangi bias dalam AI, dan dalam tim manusia mereka, untuk memberdayakan mereka untuk berpartisipasi dalam meningkatkan penggunaan AI organisasi mereka. Ini adalah upaya top-down dan bottom-up yang didukung oleh kecerdikan manusia: hilangkan bias yang jelas sehingga AI tidak memasukkannya dan, oleh karena itu, tidak memperlambat pekerjaan atau memperburuk hasil seseorang. Mereka yang tidak berpikir adil tentang AI tidak menggunakannya dengan cara yang benar. ”

Memecahkan tantangan ini “membutuhkan lebih dari sekadar memvalidasi sistem AI terhadap beberapa metrik,” kata Oggel. “Jika Anda memikirkannya, bagaimana seseorang mendefinisikan gagasan keadilan? Masalah apa pun dapat memiliki banyak sudut pandang, masing-masing dengan definisi berbeda tentang apa yang dianggap adil. Secara teknis, dimungkinkan untuk menghitung metrik untuk kumpulan data dan algoritme yang mengatakan sesuatu tentang keadilan, tetapi apa yang harus diukur?”

Diperlukan lebih banyak investasi “untuk meneliti bias dan memahami cara menghilangkannya dari sistem AI. Hasil penelitian ini perlu dimasukkan ke dalam kerangka kerja standar, kebijakan, pedoman, dan praktik terbaik yang dapat diikuti oleh organisasi. Tanpa jawaban yang jelas untuk ini dan lebih banyak pertanyaan, upaya perusahaan untuk menghilangkan bias akan berjuang,” kata Oggle.

Bias AI seringkali “tidak disengaja dan tidak disadari,” katanya. “Membuat staf menyadari masalah ini akan membantu mengatasi bias, tetapi yang sama pentingnya adalah memastikan Anda memiliki keragaman dalam tim ilmu data dan teknik Anda, memberikan kebijakan yang jelas, dan memastikan pengawasan yang tepat.”

Meskipun membuka proyek dan prioritas untuk perusahaan membutuhkan waktu, adakah langkah-langkah jangka pendek yang dapat diambil pada tingkat pengembangan dan implementasi? Harish Doddi, CEO Datatron, menyarankan untuk mengajukan pertanyaan berikut saat model AI dikembangkan:

  • Seperti apa versi sebelumnya?
  • Variabel input apa yang masuk ke dalam model?
  • Apa variabel keluarannya?
  • Siapa yang memiliki akses ke model?
  • Apakah ada akses yang tidak sah?
  • Bagaimana model berperilaku dalam hal metrik tertentu?

Selama pengembangan, “model pembelajaran mesin terikat oleh asumsi, aturan, dan harapan tertentu” yang dapat menghasilkan hasil yang berbeda setelah dimasukkan ke dalam produksi, Doddi menjelaskan. “Di sinilah tata kelola sangat penting.” Bagian dari tata kelola ini adalah katalog untuk melacak semua versi model. “Katalog harus dapat melacak dan mendokumentasikan kerangka kerja di mana model dikembangkan, dan garis keturunannya.”

Perusahaan “perlu memastikan dengan lebih baik bahwa pertimbangan komersial tidak melebihi pertimbangan etis. Ini bukan tindakan penyeimbangan yang mudah,” kata Oggle. “Beberapa pendekatan termasuk secara otomatis memantau bagaimana perilaku model berubah dari waktu ke waktu pada kumpulan titik data prototipikal yang tetap. Ini membantu dalam memeriksa apakah model berperilaku dengan cara yang diharapkan dan mematuhi beberapa kendala seputar akal sehat dan risiko bias yang diketahui. Selain itu, secara teratur melakukan pemeriksaan manual terhadap contoh data untuk melihat bagaimana prediksi model selaras dengan apa yang kami harapkan atau capai dapat membantu menemukan masalah yang muncul dan tidak terduga.”

Posted By : togel hari ini hongkong yang keluar 2021