
Ketua Umum DPN Peradi Profesional, Harris Arthur Hedar, mengajak kalangan akademisi dan praktisi hukum untuk berani melampaui pendekatan dogmatis dalam memandang algoritma. Guru Besar Universitas Negeri Makassar (UNM) ini menegaskan bahwa algoritma tidak boleh lagi diperlakukan sebagai entitas yang kebal hukum dengan dalih netralitas teknologi.
Pernyataan tersebut disampaikan Harris menyusul kekhawatirannya terhadap perubahan mendasar dalam cara manusia mengonsumsi informasi. Jika sebelumnya proses kurasi dilakukan oleh redaktur atau editor dengan standar profesional, kini peran tersebut telah banyak diambil alih oleh algoritma.
“Teknologi tidak pernah netral. Ia membawa misi, desain, dan konsekuensi,” ujar Harris, Sabtu (18/4/2026).
Menurutnya, ada sejumlah tantangan besar dalam menempatkan algoritma dalam kerangka hukum. Selama ini, algoritma cenderung berada dalam ruang impunitas yang sulit disentuh hukum. Tantangan tersebut mencakup aspek kausalitas, status subjek hukum, hingga yurisdiksi.
Terkait kausalitas hukum, Harris menjelaskan bahwa membuktikan algoritma sebagai penyebab langsung suatu tindakan, seperti kekerasan atau bunuh diri, bukan perkara mudah.
“Perusahaan teknologi akan selalu menunjuk pada ‘kehendak bebas’ korban atau pelaku sebagai intervening cause,” jelasnya.
Namun demikian, ia menambahkan bahwa dalam perspektif psikologi dan neurosains, algoritma yang dirancang dengan teknik *behavioral reinforcement* secara sistematis dapat mengikis rasionalitas pengguna.
Sementara itu, dari sisi status hukum, algoritma tidak memiliki kedudukan sebagai subjek hukum. Ia bukan manusia maupun badan hukum. Hal ini menjadi kendala dalam upaya hukum, khususnya gugatan perdata.
“Dalam ranah gugatan perdata, *class action* membutuhkan pihak tergugat yang jelas. Tanpa konstruksi yuridis yang memandang algoritma sebagai produk cacat dalam arti luas, korban hanya akan kesulitan memperoleh keadilan restitutif,” ungkap Harris.
Tantangan berikutnya adalah yurisdiksi. Ia menilai, perusahaan pengembang algoritma umumnya berada di luar negeri, sehingga sulit dijangkau oleh hukum nasional, terutama di negara berkembang.
“Platform global sering berada di luar jangkauan hukum nasional. Akibatnya, meskipun ada upaya menggugat, eksekusi putusan kerap menjadi utopia,” ujarnya.
Harris juga menyoroti perbedaan mendasar antara algoritma dan objek hukum konvensional. Berbeda dengan produk seperti rokok, kosmetik, atau makanan yang memiliki entitas produsen yang jelas, algoritma bersifat dinamis dan tidak berwujud.
“Algoritma bukan barang dalam pengertian klasik. Ia adalah sistem atau *black box* yang terus berkembang secara dinamis,” katanya.
Ia pun mempertanyakan siapa yang harus bertanggung jawab ketika algoritma di media sosial mendorong perilaku berbahaya, seperti kekerasan dalam rumah tangga akibat paparan konten misoginis, atau mendorong remaja mengakses konten pro-anoreksia hingga berujung bunuh diri.
“Hukum acara kita mengenal *class action*, tetapi syarat utamanya adalah identitas tergugat yang jelas serta hubungan kausalitas yang tegas. Di sinilah kompleksitas persoalan ini,” paparnya.
Lebih lanjut, Harris menyinggung bahwa saat ini algoritma seolah berada dalam “ruang kebal hukum”, diperkuat oleh regulasi seperti Section 230 di Amerika Serikat maupun prinsip *intermediary liability* di sejumlah negara.
“Mereka berargumen hanya sebagai saluran, bukan penerbit konten,” ujarnya.
Untuk menjawab tantangan tersebut, Harris menawarkan sejumlah langkah. Salah satunya adalah memperluas interpretasi kealpaan berat (*gross negligence*) dalam hukum perdata.
“Jika platform mengetahui atau seharusnya mengetahui bahwa desain algoritmanya berpotensi memicu polarisasi ekstrem atau kekerasan, namun tetap mengejar *engagement* demi keuntungan, maka itu merupakan kealpaan yang menimbulkan kerugian massal,” tegasnya.
Ia juga mendorong agar algoritma direkonseptualisasi sebagai produk dalam kerangka *product liability*. Meski tidak berwujud, algoritma dinilai sebagai komoditas dalam ekonomi perhatian (*attention economy*) yang dapat memiliki cacat desain (*design defect*).
“Gugatan *class action* dapat diarahkan kepada korporasi di balik algoritma dengan menggunakan teori *design defect*, sebagaimana pada produk berbahaya lainnya,” jelasnya.
Di akhir pernyataannya, Harris menegaskan bahwa upaya menggugat algoritma bukanlah bentuk penolakan terhadap inovasi teknologi. Sebaliknya, hal tersebut merupakan langkah untuk mengembalikan fungsi hukum sebagai pelindung keadilan.
“Saatnya hukum hadir sebagai panglima di ruang siber, memastikan inovasi teknologi berjalan selaras dengan martabat manusia dan nilai-nilai keadilan,” tandasnya.


