Senin, 28 November 2022

 

Keamanan Pelajar dalam Kapitalisme Pengawasan

Iwan Pranoto : Pengajar di Institut Teknologi Bandung

KOMPAS, 22 November 2022

 

                                                

 

Penyokong teknologi pendidikan percaya bahwa teknologi belajar akan mengatasi berbagai masalah ketimpangan dalam pendidikan, seperti ketersediaan guru bermutu, bahan ajar, fasilitas sekolah, dan lainnya.

 

Bahkan kita pendukung teknologi kadang terlalu percaya pada teknologi dengan memproklamasikan bahwa teknologi dapat membantu manusia reinvent atau menemukan kembali kemanusiaan di masa depan. Padahal kenyataannya, korporasi teknologi besar sampai saat ini melihat manusia, khususnya pelajar, baru sebagai pasar, angka, atau obyek yang sah untuk dimanipulasi.

 

Bahkan, lebih parahnya lagi, individu dan rekaman perilakunya sudah dijadikan bahan mentah yang setelah diolah dapat diperjualbelikan ke behavior market atau pasar perilaku.

 

Kapitalisme pengawasan

 

Pada 2019, sebelum wabah Covid-19, seorang ekonom Shoshana Zuboff menulis sebuah buku berjudul Surveillance Capitalism. Litbang Kompas mengulas buku tersebut dan menerjemahkan istilah ini sebagai kapitalisme pengawasan (Kompas, 12/9/2020).

 

Namun, karena mungkin perhatian masyarakat masih terpusat pada masalah wabah kala itu, perhatian terhadap gagasan di buku ini tak begitu memperoleh perhatian. Padahal, melalui buku ini, Zuboff menguraikan bagaimana korporasi teknologi besar menjadikan data yang dicomot dari pengawasan dan ditambang dari pengalaman tiap orang diubah sebagai komoditas yang bernilai tinggi untuk diperjual-belikan.

 

Perusahaan raksasa teknologi, seperti Google, Microsoft, Facebook, sekarang telah memegang kekuasaan (yang belum pernah ada sebelumnya) untuk mengawasi, memonitor, meramal, dan mengendalikan perilaku manusia melalui penyedotan data pribadi dalam skala masif (Williamson, 2021).

 

Dalam bukunya, Zuboff (2019) tak menyinggung dampak kapitalisme pengawasan pada pendidikan. Namun, justru begitu masifnya penggunaan teknologi belajar dan gencarnya korporasi teknologi besar mempromosikan produknya di saat wabah Covid-19 sampai sekarang ini telah menunjukkan dengan tepat begitu nyata sekaligus seriusnya kekhawatiran yang dikemukakan Zuboff.

 

Pemindahan proses belajar di ruang kelas fisik ke platform digital yang kerap dimiliki korporasi teknologi besar telah memberikan akses penambangan data perilaku pelajar, dan ini persis seperti yang diuraikan Zuboff.

 

”Kapitalisme pengawasan secara sepihak mengklaim pengalaman pribadi manusia sebagai bahan mentah gratis (dan sah) untuk dikonversi menjadi data perilaku. Data ini kemudian diproses dan dikemas sebagai produk prediksi dan dijual ke pasar perilaku—bisnis dengan minat komersial untuk mengetahui apa yang akan kita lakukan sekarang, setelah ini, dan nanti” (Zuboff, 2019).

 

Artinya, saat seorang pelajar menggunakan teknologi belajar, pengguna ini sesungguhnya tidak sekadar menggunakan teknologi sebagai platform bertukar atau menyimpan pengetahuan, tetapi tiap pengguna dengan tak sadar telah mengungkapkan perilaku pribadinya.

 

Runyamnya, bagaimana jika data pengalaman perilaku yang ditambang, diolah, dan dijual ke pihak lain berasal dari perilaku para pelajar, seperti kejadian kecurangan, mencontek, plagiarisme, depresi, dan lainnya?

 

Data yang bernilai tinggi di pasar perilaku ini kemudian secara sembrono dapat dibuat sebagai dasar prediksi perilaku mereka di masa depan.

 

Kemudian, data ini dapat mencuat beberapa tahun kemudian saat para pelajar itu akan melamar suatu lowongan pekerjaan, memohon kredit bank, pengembangan kariernya, melamar sebuah jabatan publik, atau lainnya. Di sini terpampang jelas begitu seriusnya ancaman terhadap nilai-nilai kemanusiaan, seperti privasi serta sense of personhood atau perasaan sebagai sebuah pribadi.

 

Berpikir kritis

 

Masalah yang sama seriusnya atau lebih terjadi manakala data dari korporasi teknologi itu tak terjaga baik dan terjadi kebocoran, pencurian, atau akses data tanpa wewenang. Hal buruk seperti ini yang justru terjadi pada sebuah perusahaan teknologi pendidikan Illuminate Education pada 2022 ini.

 

Lebih parahnya, publik kemudian mengetahui bahwa ternyata data yang disimpan oleh perusahaan teknologi pendidikan ini, kecuali tak terjaga baik, juga tidak dienkripsi.

 

Setelah diselidiki, diketahui bahwa data yang bocor berisi informasi menyangkut layanan pendidikan khusus bagi siswa (difabel) dan makan siang gratis atau berharga-rendah (bagi pelajar kurang mampu), nama mereka, informasi demografi, status imigrasi, dan catatan kedisiplinan.

 

Singer (2022) juga menyebut peranti lunak itu merekam data confidential dan rahasia, seperti intellectual disability, emotional disturbance, homeless, disruptive, defiance, perpetrator, excessive talking, should attend tutoring.

 

Data sangat pribadi dari jutaan pelajar seperti ini tentunya mempunyai konsekuensi yang mengancam pelajar itu jika berada di tangan yang tak berhak.

 

Sementara itu, dalam kehidupan yang semakin kerap berurusan dengan layanan perusahaan teknologi, perlu disadari, nilai-nilai kemanusiaan dan berbagai prinsip serta teori harus dikonversi ke dalam rangkaian perintah dalam algoritma.

 

Khususnya, dalam teknologi belajar, gagasan dalam pedagogi, teori belajar, prinsip seperti ”berpusat pada siswa,” dan bahkan nilai-nilai keindonesiaan akan diterjemahkan menjadi rangkaian perintah yang disisipkan dalam algoritma.

 

Lalu, setelah disisipkan ke dalam algoritma oleh para teknisi, publik luas tak punya akses dan kemampuan memahami rangkaian perintah itu lagi.

 

Maka, kita biasanya terpaksa memercayai pihak perusahaan teknologi pendidikan saja bahwa prinsip-prinsip belajar utama sudah diadopsi dengan baik ke dalam algoritma. Lalu saat teknologi belajar digunakan, publik sudah memercayakan secara total jalannya proses pembelajaran di tangan algoritma.

 

Padahal, jika kita dapat begitu saksama dan kritis saat mengevaluasi prinsip, pengetahuan, dan keterampilan seorang calon guru atau dosen, sejatinya kita juga harus sama saksamanya mengevaluasi algoritma dalam teknologi pendidikan yang digunakan pelajar.

 

Memang mustahil untuk publik mampu menyelami algoritma secara rinci, tetapi tiap individu yang memanfaatkannya harus terus-menerus mengamati proses berinteraksinya dengan teknologi itu, dan kemudian melaporkan ke perusahaan teknologi itu jika ditemui ada yang tak cocok atau melanggar suatu prinsip atau nilai.

 

Jadi, tiap individu yang berinteraksi dengan teknologi harus senantiasa menggunakan kemampuan berpikir kritisnya yang didasari nilai-nilai kemanusiaannya dalam mencermati pengalamannya.

 

Kekritisan berpikir ini seperti yang diteladankan Safiya U Noble (2018) dalam bukunya Algorithms of Oppression: How Search Engines Reinforce Racism. Di situ, ia menunjukkan bahwa algoritma pencarian Google telah diskriminatif terhadap gadis Afro-Amerika.

 

Kita harus peka dan berani seperti Noble yang menunjukkan bagaimana jika mesin pencarian Google dimasukkan kata black girls yang ternyata hasilnya penuh dengan informasi yang merendahkan gadis kulit hitam, padahal kata yang dimasukkan tidak memuat sama sekali kata-kata kunci seperti porn atau sex.

 

Demikian pula saat dimasukkan kata three black teenagers ke mesin pencari, yang disajikan mesin itu sederetan informasi tentang kriminal.

 

Kecuali Noble, Catherine D’Ignazio dan Lauren Klein (2020) melalui bukunya Data Feminism menunjukkan ketidaknetralan data dan algoritma. Ketidaknetralan ini juga telah disinggung penulis dalam ”Menyoal Kenetralan Pendidikan” (Kompas, 28/9/2020).

 

Bahayanya, jika menemui hasil merendahkan seperti yang ditemui Noble, D’Ignazio, atau Klein, banyak dari kita justru menganggapnya sebagai sebuah kewajaran. Ini alasannya, tiap individu harus lebih peka dan berpikir kritis berdasar nilai-nilai kemanusiaan dalam mengevaluasi pengalamannya berinteraksi dengan teknologi.

 

Di pihak perusahaan teknologi besar sendiri, langkah pengabaian nilai kemanusiaan kadang dilakukan dengan sistematis. Misalnya seperti yang terjadi pada perusahaan Twitter di hari-hari belakangan ini, penguasa yang baru telah memecat seluruh tim human rights atau hak asasi manusia di korporasi tersebut.

 

Ini dapat jadi merupakan sebuah kabar buruk bagi demokrasi di dunia ke depan.

 

Sementara itu, Facebook dan para petingginya, yang kerap mengatakan bahwa mereka berhasil mengendalikan penyebaran ujaran kebencian, kenyataannya tidak seindah klaim tersebut. Seperti yang diungkapkan seorang whistle blower bahwa tak mungkin perusahaan media sosial raksasa itu menghapus semua muatan kebencian dan tetap menghasilkan laba. Korporasi itu lebih memilih laba ketimbang keamanan (Mac dan Kang, 2021).

 

Untuk menghadapi pelanggaran nilai kemanusiaan dampak dari kapitalisme pengawasan ini, dalam tataran undang-undang, masyarakat harus menuntut jaminan dari Kementerian Pendidikan, Kebudayaan, Riset, dan Teknologi, tiap institusi pendidikan, dan perusahaan teknologi pendidikan, atas keamanan rekaman pendidikan tiap pelajar.

 

Informasi pribadi ini harus dijamin kerahasiaannya sampai beberapa dekade ke depan dan hanya dapat diakses dengan izin dari pelajar tersebut.

 

Sementara pada tataran individu, masing-masing harus terus-menerus menggunakan kemampuan critical humanity thinking dalam mencermati kehidupan yang sudah tersedot ke dalam belantara algoritma untuk menjamin terawatnya nilai-nilai kemanusiaan.

 

Sumber :   https://www.kompas.id/baca/opini/2022/11/21/keamanan-pelajar-dalam-kapitalisme-pengawasan

 

 

Tidak ada komentar:

Posting Komentar