Pilpres 2024 dalam Jebakan Algoritma Media Sosial
TAHUN 2017, ketika pengguna Facebook mencapai 2 miliar orang, Mark Zuckerberg yang merupakan pendiri dan CEO Facebook menulis pesan di akun Facebook-nya: “Sampai pagi ini, komunitas Facebook resmi mencapai dua miliar orang. … Kami membuat kemajuan yang menghubungkan dunia, dan sekarang mari mendekatkan dunia. Merupakan suatu kehormatan untuk melakukan perjalanan ini dengan Anda.”
Pada kesempatan lain, Zuckergberg menulis: “Selama dekade terakhir, Facebook berfokus untuk menghubungkan teman dan keluarga. Dengan dasar itu, fokus kami selanjutnya adalah mengembangkan infrastruktur sosial untuk masyarakat – untuk mendukung kita, untuk menjaga kita tetap aman, untuk memberi informasi kepada kita, untuk keterlibatan sipil, dan untuk penyertaan semua orang.” (Dikutip oleh Vaidhyanathan, 2018: 10.) Apa yang dikutip di atas bukanlah narasi idealis utopis pertama Zuckerberg tentang Facebook. Pada 2 Februari 2012, Zuckerberg pernah menulis pesan serupa dalam suratnya kepada para pemegang saham Facebook. Bahkan dalam pesan itu, Zuckerberg dengan tegas mengatakan bahwa Facebook merupakan media sosial yang dapat mendorong demokratisasi.
Menariknya, hanya empat tahun setelah Zuckerberg menarasikan visi utopis Facebook kepada para pemegang saham dan setahun sebelum ia menulis pesan terbuka di Facebook, tepatnya tahun 2016, Facebook dituduh menjembatani dan mempromosikan propaganda politik yang berpengaruh terhadap keluarnya Inggris dari Uni Eropa (Brexit) dan terpilihnya Presiden Amerika Serikat (AS), Donald Trump. Trump merupakan sosok populis sayap kanan yang konsisten menyebarkan propaganda politik antiasing, nativisme, antiimigran, dan xenofobia di media sosial. Tuduhan di atas diperkuat oleh temuan beberapa sarjana (Bdk. Vaidhayantan, 2018: Fuchs, 2022) bahwa dalam Pilpres AS 2016, ada keterlibatan Rusia untuk mempertajam friksi dan polarisasi politik melalui iklan yang dibeli di Facebook dan Instagram yang ditargetkan untuk menjangkau kurang lebih 126 juta orang AS.
Kasus yang tidak kalah menghebohkan adalah skandal “Cambridge Analityca”. Cambridge Analityca merupakan skandal yang berhubungan dengan pengumpulan data pribadi dari kurang lebih 50 juta pengguna Facebook yang dimanfaatkan untuk memengaruhi pandangan politik pemilih melalui iklan politik terpersonalisasi pada Pilpres AS 2016. Selain kedua kasus itu, para sarjana juga menemukan kontribusi Facebook dalam mendorong kebangkitan otoritarianisme dan alarm erosi demokrasi yang tampak dalam kemunculan kebrutalan etnis dan nasionalisme religius, friksi, fragmentasi, dan polarisasi politik serta retorika populisme sayap kanan dan fasisme digital selama proses pemilihan umum dan peristiwa politik penting di AS, Indonesia, Hungaria, Polandia, Kenya, India, Turkiye, Prancis, Filipina, Inggris, dan sejumlah negara lainnya (Fuchs, 2018 & 2022; Vaidhayantan, 2018).
Selain kedua kasus itu, para sarjana juga menemukan kontribusi Facebook dalam mendorong kebangkitan otoritarianisme dan alarm erosi demokrasi yang tampak dalam kemunculan kebrutalan etnis dan nasionalisme religius, friksi, fragmentasi, dan polarisasi politik serta retorika populisme sayap kanan dan fasisme digital selama proses pemilihan umum dan peristiwa politik penting di AS, Indonesia, Hungaria, Polandia, Kenya, India, Turkiye, Prancis, Filipina, Inggris, dan sejumlah negara lainnya (Fuchs, 2018 & 2022; Vaidhayantan, 2018). Hal yang mengejutkan ialah ketika dimintai pertanggujawaban tentang kasus-kasus tersebut, Zuckerberg bergeming. Dalam manifesto yang dia tulis di akun Facebook-nya tahun 2017, Zuckerberg terkesan mencuci tangan. Dia berdalih bahwa masalah tersebut murni terjadi karena masalah penskalaan operasional, bukan karena Facebook memiliki posisi ideologis yang bertentangan dengan masyarakat
Hal yang mengejutkan ialah ketika dimintai pertanggujawaban tentang kasus-kasus tersebut, Zuckerberg bergeming. Dalam manifesto yang dia tulis di akun Facebook-nya tahun 2017, Zuckerberg terkesan mencuci tangan. Dia berdalih bahwa masalah tersebut murni terjadi karena masalah penskalaan operasional, bukan karena Facebook memiliki posisi ideologis yang bertentangan dengan masyarakat. Menurut dia, Facebook terlalu besar untuk diatur. Zuckerberg bahkan menempatkan dirinya sebagai korban kesuksesan Facebook yang dia ciptakan (Vaidhayantan, 2018: 12).
Kegentingan Pemilu di Indonesia
Di antara sekian negara yang terpengaruh oleh media sosial selama proses pemilu, Indonesia termasuk salah satu yang tingkat kegentingannya cukup tinggi. Selama Pilkada DKI Jakarta 2017, menurut temuan Lim (2017), alih-alih mendorong kebebasan berbicara, media sosial malah mendorong kebebasan untuk membenci.
Ketegangan politik selama Pilkada DKI Jakarta 2017 berlanjut pada Pilpres 2019. Kita semua tahu pada waktu itu bahwa narasi cebong versus kampret menjadi narasi paling dominan di media sosial antara kedua kubu yang berkontestasi. Kita nyaris tidak menemukan diskursus politik yang berbobot di media sosial selama Pilpres 2019. Apa yang terjadi pada Pilkada DKI Jakarta 2017 dan Pilpres 2019 berpotensi akan terulang lagi pada momentum Pilpres 2024. Potensi ke arah itu sudah mulai terbaca lewat gejolak politik yang terjadi di media sosial saat ini. Apalagi rancangan konsitusi kita sampai saat ini masih mensyaratkan raihan lebih dari 50 persen suara untuk bisa ditetapkan sebagai pemenang pilpres. Hal itu membuat pilpres pada akhirnya bergerak ke arah dua poros sehingga potensi keterbelahan dan polarisasi politik semakin tajam (Kompas.id, 19/03/2023). Ancaman di atas menurut saya akan semakin genting karena demokrasi elektoral kita hampir belum bisa lepas dari pengaruh kehadiran ideologi-ideologi transnasional dan ultranasionalis yang mengusung politik identitas berbasis agama, suku, ras, dan budaya sebagai isu sentral untuk meraih simpati pemilih.
Ketika narasi primordial semacam itu dimainkan di media sosial, potensi keterbelahan atau polarisasi politik semakin besar karena mekanisme otomatisasi algoritma akan mengarahkan orang pada pandangan yang selaras dengan pandangan pribadi mereka. Dengan efek bias algoritma tersebut, orang sulit masuk dalam perdebatan yang rasional. Hal yang dominan akan terjadi justru pertarungan sentimen.
Mengantisipasi Efek Kolateral Algoritma
Persoalan polarisasi politik yang sudah dijelaskan sebelumnya perlu dianalisis secara seimbang. Persoalan tersebut tidak bisa dibingkai dalam perspektif instrumentalis semata yang menempatkan teknologi murni sebagai alat yang sifatnya netral, sehingga keberhasilan penggunaannya bergantung pada pengguna sendiri. Melampaui perspektif instrumentalis, teknologi digital saat ini sudah menjadi lingkungan baru yang memiliki ekosistem yang sudah terstruktur secara otomatis sehingga keberhasilan dan/atau kegagalan penggunaannya merupakan produk interaksi organik antara teknologi dan pengguna serta konteks sosial, budaya, dan politik.
Melampaui perspektif instrumentalis, teknologi digital saat ini sudah menjadi lingkungan baru yang memiliki ekosistem yang sudah terstruktur secara otomatis sehingga keberhasilan dan/atau kegagalan penggunaannya merupakan produk interaksi organik antara teknologi dan pengguna serta konteks sosial, budaya, dan politik.
Ekosistem tersebut dirancang sesuai dengan kepentingan pemiliknya. Dalam konteks ini, untuk memahami ekosistem teknologi digital seperti media sosial, yang perlu dipahami terlebih dahulu ialah tujuan dan fungsi teknologi atau media tersebut. Facebook, misalnya, selama ini umumnya dikenal sebagai situs jejaring sosial. Gambaran yang demikian membuat orang cenderung membayangkan algoritma atau ekosistem Facebook murni melayani tujuan komunikasi sosial. Dalam kenyataannya, pengembangan Facebook sebagai situs jejaring sosial dikembangkan hanya pada fase-fase awal pendirian Facebook (2004-2010). Sejak 2010 sampai sekarang, Facebook lebih mengembangkan dirinya sebagai sebuah platform multisisi yang melayani periklanan dan pemasaran digital satu atap daripada sebagai situs jejaring sosial. Oleh karena itu, desain algoritmanya bertujuan melayani kepentingan bisnis tersebut. Celakanya, dalam bidang politik dan demokrasi, rancangan algorima tersebut memiliki efek kolateral atau tak terduga yang justru mengancam ortodoksi dan institusi demokrasi.
Efek kolateral algoritma Facebook atau media sosial pada umumnya dalam bidang politik dan demokrasi tampak dalam beberapa hal. Pertama, bias konfirmasi. Algoritma Facebook atau media sosial pada umumnya mendorong terjadinya bias konfirmasi yang menjadi aspek penting untuk dapat memahami polarisasi online. Bias ini terjadi karena seseorang secara selektif mengumpulkan bukti yang cenderung mendukung argumentasinya, sementara pada saat yang sama ia mengabaikan upaya untuk mengumpulkan bukti yang sebaliknya (Burighel, 2019: 4). Kedua, gelembung filter (filter bubble). Istilah tersebut diciptakan Eli Pariser (2011) untuk menggambarkan efek kolateral algoritma. Algoritma yang dirancang untuk tujuan penelitian,
promosi konten, periklanan, seleksi, dan penyaringan di internet dalam kenyataannya menyebabkan distorsi dan prasangka. Hal itu mendorong polarisasi dan memperkuat efek bias dan ruang gema digital. Itu terjadi karena algoritma, dengan memprioritaskan konten tertentu, akan membuat orang terjebak dalam gelembungnya sendiri sehingga dia sulit menemukan pandangan alternatif (Burighel, 2019: 6-7). Di Facebook, misalnya, jika Anda menghargai situs, teman, atau halaman web tertentu dengan like atau emoji hati, sering membagikan konten itu di halaman Facebook Anda atau mengomentarinya, Facebook tahu Anda sangat terlibat dengan mereka. Facebook melakukannya dengan skor prediktif untuk setiap item. Dalam konteks ini, Facebook mengetahui dengan jelas preferensi Anda. Facebook tidak ingin mengganggu Anda dengan banyak hal yang tidak Anda minati. Seiring waktu, umpan Anda menjadi lebih sempit dalam perspektif berdasarkan fakta bahwa teman dan situs cenderung konsisten secara politis dalam apa yang mereka unggah (Vaidhayantan, 2018: 17)
Ketiga, echo-chamber. Echo-chamber (ruang gema) adalah kelompok homofili lingkungan digital yang menyatukan kelompok orang yang homogen. Dalam lingkungan homofili ini, dengan dukungan mekanisme algoritma teknologi digital, akan sangat sulit bagi seseorang untuk bertemu dengan orang yang menganut pandangan dan nilai serta keyakinan yang berbeda. Mereka akhirnya menjadi terpolarisasi karena opini dan informasi yang sama terus digaungkan sedangkan opini dan informasi yang berbeda seolah-olah tidak ada.
Akibatnya mereka hidup dalam kepompong informasi (Sunstein (2001: 2; Burighel, 2019: 5-6). Selain mendorong terbentuknya ketiga hal di atas, algoritma dan ekosistem Facebook juga memungkinkan akselerasi penyebaran hoaks dan ujaran kebencian. Hal ini termasuk problem struktural Facebook. Facebook cenderung memperkuat konten yang berhubungan dengan sisi emosional, baik kegembiraan maupun kemarahan.
Pengguna dapat dengan mudah mencemari Facebook dengan “omong kosong” untuk mengalihkan perhatian atau propaganda. Pengguna dapat melakukannya dengan memilih pesan dan gambar yang paling ekstrem dan provokatif yang dapat memicu polarisasi. Ekstremisme dan provokasi akan menghasilkan reaksi positif dan negatif. Konten-konten seperti itu memantik “keterlibatan” (engagement) yang tinggi di Facebook. Sebaliknya, konten-konten yang terstruktur dan datar sulit mendapat peluang “engagement” tinggi (Vaidhayantan, 2018: 15).
Dalam konteks Pilpres 2024, tentu rancangan algoritma Facebook atau media sosial pada umumnya menjadi salah satu ancaman. Jika tidak diantisipasi dengan baik, ancaman itu akan membuat demokrasi kita akan terguncang dan bahkan berpotensi mengalami erosi luar biasa. Hal ini bisa menjadi efek yang tak terhindarkan jika publik atau netizen tidak dibiasakan untuk melakukan pencarian terhadap informasi yang bertentangan dengan preferensinya di internet atau media sosial. Ini penting karena cookie browser kita menjadi salah satu data penting bagi sistem pemetaan otomatis algoritma.