Kita Butuh Lakukan Tindakan Saat Ini Serta Memposisikan Hak Asasi Manusia Di Pusat Bentuk Kecerdasan Hasil

Kita Butuh Lakukan Tindakan Saat Ini Serta Memposisikan Hak Asasi Manusia Di Pusat Bentuk Kecerdasan Hasil

asasi manusia yang kita bangun dengan kerepotan saat 70 tahun paling akhir. Lantaran argumen ini, satu diantara tempat publik pertama yang saya mengambil jadi Komisaris Hak Asasi Manusia yaitu terkait pentingnya buat perlindungan hak asasi manusia di jaman AI. Dalam Komentar Hak Asasi Manusia serta dalam editorial pemikiran yang saya munculkan pada Juli tahun yang kemarin, saya mengedepankan kalau AI bisa begitu menambah kapabilitas kita buat melakukan kehidupan yang kita mau. Namun itu bisa juga memusnahkan mereka.

AI sesungguhnya bisa pengaruhi dengan cara negatif pelbagai hak asasi manusia kita, dari pribadi serta kesetaraan sampai kebebasan berekspresi serta kumpul. Disaat pemungutan ketentuan berbasiskan data merefleksikan prasangka penduduk, itu mereproduksi – atau bahkan juga memperkokoh – bias penduduk itu. Ini dapat juga sebarkan mis- serta disinformasi serta perdalam beberapa cara halus misoginis, rasis serta stereotip yang tak demokratis.

Soal ini tampak terpenting dari realita kalau ketentuan diambil berdasar pada metode ini dengan sedikit atau mungkin tidak ada transparansi, akuntabilitas atau perlindungan dalam bagaimana mereka didesain, bagaimana mereka kerja serta bagaimana mereka bisa berganti dari kian waktu. Sejak mulai awal instruksi saya, saya udah mengatasi soal ini dalam sejumlah peluang.

Dalam laporan saya seusai kunjungan saya ke Estonia pada Juni tahun yang kemarin, umpamanya, saya menyaksikan bagaimana orang yang lebih tua serta hak asasi mereka dikontrol oleh pemanfaatan kecerdasan hasil serta robot dalam pelayanan sosial serta perawatan. LSM memberi kabar saya terkait kesukaran yang berkaitan dengan pemanfaatan pemungutan ketentuan automatic dalam pelayanan kegunaan sosial. Menuruti reformasi metode partisan kapabilitas kerja, mesin serta algoritma dimanfaatkan buat dengan cara automatic mempelajari kembali tingkat ketidaksanggupan. Diadukan, data yang tak komplet dalam basis e-health, tambah lagi dengan minimnya interview dengan cara langsung, menimbulkan hilangnya kegunaan sosial buat beberapa orang cacat spesifik serta orang-tua penyandang cacat.

Beberapa waktu terakhir, saya memiliki kesempatan buat berdiskusi dengan Pembela Hak Prancis terkait manfaat ” Parcoursup ” , pelayanan penerimaan pendidikan tinggi yang dibuat di Prancis pada tahun 2018. Diperuntukan buat siswa yang mengunjungi tahun paling akhir sekolah menengah serta rencana buat menyambung studi mereka dalam sesuatu perguruan tinggi atau kampus, udah diciptakan buat menyederhanakan akses ke pendidikan tinggi dengan memfokuskan penerapan. Akan tetapi, beberapa pengaduan yang berisi pendapat diskriminasi algoritmik pada pelamar dari sekolah menengah spesifik di ajukan terhadap Pembela Hak. Dalam dua ketentuan yang dikeluarkan Januari selanjutnya, Pembela Hak menyuarakan transparansi lebih dalam proses, menunjuk ke syarat-syarat spesifik yang dikira memiliki potensi diskriminatif, ialah hunian atau sekolah asal. Ia menyarankan terhadap Menteri Pendidikan Tinggi, Analisa serta Perubahan buat ambil beberapa langkah yang dibutuhkan buat mempublikasikan semua kabar yang berhubungan dengan perawatan, termasuk juga lewat algoritma, serta penilaian file pelamar. Ia pun menyarankan aplikasi beberapa langkah privat yang menyertainya untuk siswa penyandang cacat.

Sebagian contoh ini menggarisbawahi andil penting yang bisa dimainkan Ombudspersons, namun juga lembaga-lembaga HAM nasional serta kesetaraan, di sektor ini. Sebagian contoh ini pun dengan jelas memberikan kalau sesaat semuanya penduduk barangkali terbujuk oleh pemanfaatan metode AI, kerapkali yang paling rentanlah yang paling menanggung derita. Ada makin bertambah bukti kalau wanita, orang-tua, etnis minoritas, orang cacat, LGBTI serta beberapa orang yang kurang untung dengan cara ekonomi terpenting menanggung derita diskriminasi oleh algoritma yang bias. Diluar itu, ada kekurangan kabar terkait bagaimana metode ini bekerja, yang membuat sukar buat melakukan perbaikan bentuk serta bangun akuntabilitas.

Baca juga : INI FAKTA KENDARI DIPANDANG TIDAK WAJAR JADI TEMPAT KONGRES PAN

Oleh sebab itu jelas untuk saya kalau kami mengontrol permainan, atau permainan bakal mengontrol kami. AI pengaruhi ketentuan yang kita mengambil. Itu bisa memperkokoh kebebasan kita atau menindas mereka. Ini bisa menambah keikutsertaan atau berubah menjadi ultimatum untuk demokrasi. Ini bisa melibatkan orang atau memajukan mereka di pinggir penduduk. Terserah kita buat arahkan AI, bukan sebaliknya.

Buat maksud ini, kerangka kerja hak asasi manusia yang ada mesti berlaku serta kedukaan serta hak tiap-tiap orang di tempatkan di pusat bentuk, penebaran, serta implementasi metode AI. Ini berlaku buat entitas publik serta bagian swasta. Lantaran Negara bertanggung-jawab buat menghargai, buat perlindungan, serta penuhi hak asasi tiap-tiap orang, yaitu keharusan mereka buat meyakinkan kalau perusahaan swasta yang merencanakan, meningkatkan atau memanfaatkan metode AI tidak langgar standard hak asasi manusia.

Ini bisa berlangsung dengan libatkan lebih tegas dengan industri technologi buat bikin mereka sadar bakal pentingnya masukkan hak asasi manusia dalam bentuk metode AI serta memajukan mereka buat menilainya resiko hak asasi manusia dari metode ini. Penuturan publik pada banyak aktor negara, bagian swasta, akademisi, LSM, media serta kelompok-kelompok penduduk sangat mendukung dalam soal ini. Negara mesti memperkokoh observasi kepatuhan HAM mereka dengan metode AI serta lakukan tindakan kapan lantas ada pelanggaran pada hak-hak ini. Mereka mesti memperkokoh pengawasan independent serta melibatkan susunan HAM nasional buat ikut serta dalam sektor ini pun.

Selanjutnya, mereka mesti mempromokan “literasi AI” pada populasi, serta terutama di sekolah-sekolah, buat mendukung orang mendalami trik kerjanya serta mengetahui kapan itu membahayakan. Biar perihal ini berlangsung, Negara mesti berinvestasi semakin banyak dalam kesadaran publik, kursus serta gagasan pendidikan buat meningkatkan kompetensi semua penduduk negara serta menanggulangi kepincangan pengetahuan. Ini barangkali investasi yang mahal namun dengan pengembalian demokratis yang besar.

Dewan Eropa mesti berubah menjadi kapabilitas khusus di sektor ini. Piagam Adat Eropa terkait pemanfaatan kecerdasan hasil dalam metode peradilan, Petunjuk terkait Kecerdasan Hasil serta Perlindungan Data serta Deklarasi terkait kapabilitas manipulatif proses dari algoritmik yaitu blok bangunan penting buat meyakinkan kalau metode AI bekerja dalam batas perlindungan hak asasi manusia. Saya bakal membuat AI jadi satu diantara obyek prioritas saya saat semuanya instruksi saya. Dalam sekian bulan waktu depan, saya rencana buat menerbitkan dokumen terkait AI serta hak asasi manusia buat mendukung sekian banyak negara anggota mengatasi resiko beraneka sisi yang bisa dipunyai oleh AI pada hak asasi manusia.

Saya begitu yakin kalau AI mesti memiliki fungsi buat menuntaskan soal, bukan buat menciptakannya. Apabila dirapikan dengan cara layak, itu bisa begitu berfaedah untuk kehidupan kita, penduduk kita, serta generasi hari depan. Menyuntikkan adat ke penebaran metode AI kurang. Tersebut pemicunya kita butuh lakukan tindakan saat ini serta memposisikan manusia, martabat serta hak-hak mereka di pusat bentuk pemungutan ketentuan automatic. “

Leave a Reply

Your email address will not be published. Required fields are marked *