Keamanan
Pelajar dalam Kapitalisme Pengawasan Iwan
Pranoto : Pengajar di Institut Teknologi
Bandung |
KOMPAS, 22 November 2022
Penyokong teknologi pendidikan percaya bahwa
teknologi belajar akan mengatasi berbagai masalah ketimpangan dalam
pendidikan, seperti ketersediaan guru bermutu, bahan ajar, fasilitas sekolah,
dan lainnya. Bahkan kita pendukung teknologi kadang terlalu
percaya pada teknologi dengan memproklamasikan bahwa teknologi dapat membantu
manusia reinvent atau menemukan kembali kemanusiaan di masa depan. Padahal
kenyataannya, korporasi teknologi besar sampai saat ini melihat manusia,
khususnya pelajar, baru sebagai pasar, angka, atau obyek yang sah untuk
dimanipulasi. Bahkan, lebih parahnya lagi, individu dan rekaman
perilakunya sudah dijadikan bahan mentah yang setelah diolah dapat
diperjualbelikan ke behavior market atau pasar perilaku. Kapitalisme pengawasan Pada 2019, sebelum wabah Covid-19, seorang ekonom
Shoshana Zuboff menulis sebuah buku berjudul Surveillance Capitalism. Litbang
Kompas mengulas buku tersebut dan menerjemahkan istilah ini sebagai
kapitalisme pengawasan (Kompas, 12/9/2020). Namun, karena mungkin perhatian masyarakat masih
terpusat pada masalah wabah kala itu, perhatian terhadap gagasan di buku ini
tak begitu memperoleh perhatian. Padahal, melalui buku ini, Zuboff
menguraikan bagaimana korporasi teknologi besar menjadikan data yang dicomot
dari pengawasan dan ditambang dari pengalaman tiap orang diubah sebagai
komoditas yang bernilai tinggi untuk diperjual-belikan. Perusahaan raksasa teknologi, seperti Google,
Microsoft, Facebook, sekarang telah memegang kekuasaan (yang belum pernah ada
sebelumnya) untuk mengawasi, memonitor, meramal, dan mengendalikan perilaku
manusia melalui penyedotan data pribadi dalam skala masif (Williamson, 2021). Dalam bukunya, Zuboff (2019) tak menyinggung
dampak kapitalisme pengawasan pada pendidikan. Namun, justru begitu masifnya
penggunaan teknologi belajar dan gencarnya korporasi teknologi besar
mempromosikan produknya di saat wabah Covid-19 sampai sekarang ini telah menunjukkan
dengan tepat begitu nyata sekaligus seriusnya kekhawatiran yang dikemukakan
Zuboff. Pemindahan proses belajar di ruang kelas fisik ke
platform digital yang kerap dimiliki korporasi teknologi besar telah
memberikan akses penambangan data perilaku pelajar, dan ini persis seperti
yang diuraikan Zuboff. ”Kapitalisme pengawasan secara sepihak mengklaim
pengalaman pribadi manusia sebagai bahan mentah gratis (dan sah) untuk
dikonversi menjadi data perilaku. Data ini kemudian diproses dan dikemas sebagai
produk prediksi dan dijual ke pasar perilaku—bisnis dengan minat komersial
untuk mengetahui apa yang akan kita lakukan sekarang, setelah ini, dan nanti”
(Zuboff, 2019). Artinya, saat seorang pelajar menggunakan
teknologi belajar, pengguna ini sesungguhnya tidak sekadar menggunakan
teknologi sebagai platform bertukar atau menyimpan pengetahuan, tetapi tiap
pengguna dengan tak sadar telah mengungkapkan perilaku pribadinya. Runyamnya, bagaimana jika data pengalaman
perilaku yang ditambang, diolah, dan dijual ke pihak lain berasal dari
perilaku para pelajar, seperti kejadian kecurangan, mencontek, plagiarisme,
depresi, dan lainnya? Data yang bernilai tinggi di pasar perilaku ini
kemudian secara sembrono dapat dibuat sebagai dasar prediksi perilaku mereka
di masa depan. Kemudian, data ini dapat mencuat beberapa tahun
kemudian saat para pelajar itu akan melamar suatu lowongan pekerjaan, memohon
kredit bank, pengembangan kariernya, melamar sebuah jabatan publik, atau
lainnya. Di sini terpampang jelas begitu seriusnya ancaman terhadap
nilai-nilai kemanusiaan, seperti privasi serta sense of personhood atau
perasaan sebagai sebuah pribadi. Berpikir kritis Masalah yang sama seriusnya atau lebih terjadi
manakala data dari korporasi teknologi itu tak terjaga baik dan terjadi
kebocoran, pencurian, atau akses data tanpa wewenang. Hal buruk seperti ini
yang justru terjadi pada sebuah perusahaan teknologi pendidikan Illuminate
Education pada 2022 ini. Lebih parahnya, publik kemudian mengetahui bahwa
ternyata data yang disimpan oleh perusahaan teknologi pendidikan ini, kecuali
tak terjaga baik, juga tidak dienkripsi. Setelah diselidiki, diketahui bahwa data yang
bocor berisi informasi menyangkut layanan pendidikan khusus bagi siswa (difabel)
dan makan siang gratis atau berharga-rendah (bagi pelajar kurang mampu), nama
mereka, informasi demografi, status imigrasi, dan catatan kedisiplinan. Singer (2022) juga menyebut peranti lunak itu
merekam data confidential dan rahasia, seperti intellectual disability,
emotional disturbance, homeless, disruptive, defiance, perpetrator, excessive
talking, should attend tutoring. Data sangat pribadi dari jutaan pelajar seperti
ini tentunya mempunyai konsekuensi yang mengancam pelajar itu jika berada di tangan
yang tak berhak. Sementara itu, dalam kehidupan yang semakin kerap
berurusan dengan layanan perusahaan teknologi, perlu disadari, nilai-nilai
kemanusiaan dan berbagai prinsip serta teori harus dikonversi ke dalam
rangkaian perintah dalam algoritma. Khususnya, dalam teknologi belajar, gagasan dalam
pedagogi, teori belajar, prinsip seperti ”berpusat pada siswa,” dan bahkan
nilai-nilai keindonesiaan akan diterjemahkan menjadi rangkaian perintah yang
disisipkan dalam algoritma. Lalu, setelah disisipkan ke dalam algoritma oleh
para teknisi, publik luas tak punya akses dan kemampuan memahami rangkaian
perintah itu lagi. Maka, kita biasanya terpaksa memercayai pihak
perusahaan teknologi pendidikan saja bahwa prinsip-prinsip belajar utama
sudah diadopsi dengan baik ke dalam algoritma. Lalu saat teknologi belajar
digunakan, publik sudah memercayakan secara total jalannya proses
pembelajaran di tangan algoritma. Padahal, jika kita dapat begitu saksama dan
kritis saat mengevaluasi prinsip, pengetahuan, dan keterampilan seorang calon
guru atau dosen, sejatinya kita juga harus sama saksamanya mengevaluasi
algoritma dalam teknologi pendidikan yang digunakan pelajar. Memang mustahil untuk publik mampu menyelami
algoritma secara rinci, tetapi tiap individu yang memanfaatkannya harus
terus-menerus mengamati proses berinteraksinya dengan teknologi itu, dan
kemudian melaporkan ke perusahaan teknologi itu jika ditemui ada yang tak
cocok atau melanggar suatu prinsip atau nilai. Jadi, tiap individu yang berinteraksi dengan
teknologi harus senantiasa menggunakan kemampuan berpikir kritisnya yang
didasari nilai-nilai kemanusiaannya dalam mencermati pengalamannya. Kekritisan berpikir ini seperti yang diteladankan
Safiya U Noble (2018) dalam bukunya Algorithms of Oppression: How Search
Engines Reinforce Racism. Di situ, ia menunjukkan bahwa algoritma pencarian
Google telah diskriminatif terhadap gadis Afro-Amerika. Kita harus peka dan berani seperti Noble yang
menunjukkan bagaimana jika mesin pencarian Google dimasukkan kata black girls
yang ternyata hasilnya penuh dengan informasi yang merendahkan gadis kulit
hitam, padahal kata yang dimasukkan tidak memuat sama sekali kata-kata kunci
seperti porn atau sex. Demikian pula saat dimasukkan kata three black
teenagers ke mesin pencari, yang disajikan mesin itu sederetan informasi
tentang kriminal. Kecuali Noble, Catherine D’Ignazio dan Lauren
Klein (2020) melalui bukunya Data Feminism menunjukkan ketidaknetralan data
dan algoritma. Ketidaknetralan ini juga telah disinggung penulis dalam
”Menyoal Kenetralan Pendidikan” (Kompas, 28/9/2020). Bahayanya, jika menemui hasil merendahkan seperti
yang ditemui Noble, D’Ignazio, atau Klein, banyak dari kita justru
menganggapnya sebagai sebuah kewajaran. Ini alasannya, tiap individu harus lebih
peka dan berpikir kritis berdasar nilai-nilai kemanusiaan dalam mengevaluasi
pengalamannya berinteraksi dengan teknologi. Di pihak perusahaan teknologi besar sendiri,
langkah pengabaian nilai kemanusiaan kadang dilakukan dengan sistematis.
Misalnya seperti yang terjadi pada perusahaan Twitter di hari-hari belakangan
ini, penguasa yang baru telah memecat seluruh tim human rights atau hak asasi
manusia di korporasi tersebut. Ini dapat jadi merupakan sebuah kabar buruk bagi
demokrasi di dunia ke depan. Sementara itu, Facebook dan para petingginya,
yang kerap mengatakan bahwa mereka berhasil mengendalikan penyebaran ujaran
kebencian, kenyataannya tidak seindah klaim tersebut. Seperti yang
diungkapkan seorang whistle blower bahwa tak mungkin perusahaan media sosial
raksasa itu menghapus semua muatan kebencian dan tetap menghasilkan laba.
Korporasi itu lebih memilih laba ketimbang keamanan (Mac dan Kang, 2021). Untuk menghadapi pelanggaran nilai kemanusiaan
dampak dari kapitalisme pengawasan ini, dalam tataran undang-undang,
masyarakat harus menuntut jaminan dari Kementerian Pendidikan, Kebudayaan,
Riset, dan Teknologi, tiap institusi pendidikan, dan perusahaan teknologi
pendidikan, atas keamanan rekaman pendidikan tiap pelajar. Informasi pribadi ini harus dijamin
kerahasiaannya sampai beberapa dekade ke depan dan hanya dapat diakses dengan
izin dari pelajar tersebut. Sementara pada tataran individu, masing-masing
harus terus-menerus menggunakan kemampuan critical humanity thinking dalam
mencermati kehidupan yang sudah tersedot ke dalam belantara algoritma untuk
menjamin terawatnya nilai-nilai kemanusiaan. ● Sumber :
https://www.kompas.id/baca/opini/2022/11/21/keamanan-pelajar-dalam-kapitalisme-pengawasan |
Tidak ada komentar:
Posting Komentar