Pekerja memfilter konten beracun untuk ChatGPT seharga $2 per jam

Moderasi konten adalah pekerjaan yang terkenal buruk, dan industri outsourcing tenaga kerja yang sedang berkembang di sekitarnya secara rutin menghadapi pengawasan ketat terhadap etika pendekatannya untuk menundukkan pekerja manusia ke sudut tergelap internet. Di hari Rabu, Waktu menerbitkan penyelaman mendalam investigasi baru ke Sama, sebuah perusahaan yang baru-baru ini menyediakan OpenAI dengan pekerja yang hanya bertugas membaca beberapa konten terburuk yang ditawarkan internet.

Meskipun tujuan keseluruhan upaya tersebut adalah untuk mengembangkan filter AI internal yang bermanfaat dan diperlukan untuk program ChatGPT yang populer dan menarik, mantan karyawan Sama mengatakan bahwa mereka sekarang menderita PTSD karena masa kerja mereka memilah-milah ribuan kutipan teks online mengerikan yang menggambarkan pelecehan seksual, inses, kebinatangan, pelecehan anak, penyiksaan, dan pembunuhan, menurut laporan baru. Belum lagi, laporan tersebut menyatakan bahwa karyawan ini, sebagian besar berbasis di Kenya, dibayar kurang dari $2 per jam.

[Related: Popular youth mental health service faces backlash after experimenting with AI-chatbot advice.]

ChatGPT OpenAI dengan cepat menjadi salah satu terobosan teknologi yang paling banyak dibicarakan tahun lalu karena kemampuannya untuk menghasilkan teks kreatif hampir secara instan dari hampir semua perintah manusia. Sementara program serupa sudah ada, mereka sering cenderung memuntahkan konten yang penuh kebencian dan benar-benar kasar karena ketidakmampuan mereka untuk mengidentifikasi bahan beracun secara internal di tengah kumpulan tulisan internet yang digunakan sebagai titik referensi generatif.

Dengan lebih dari 1 juta pengguna, ChatGPT sebagian besar bebas dari masalah seperti itu (walaupun masih banyak kekhawatiran lainnya), sebagian besar berkat sistem pemfilteran AI bawaan tambahan yang dimaksudkan untuk menghilangkan sebagian besar keburukan internet. Namun terlepas dari kegunaannya, program AI saat ini tidak cukup sadar diri untuk memperhatikan sendiri materi yang tidak pantas—pertama-tama mereka membutuhkan pelatihan dari manusia untuk menandai semua jenis kata kunci kontekstual dan materi pelajaran.

Ditagih di berandanya sebagai “era pengembangan AI berikutnya,” Sama, sebuah perusahaan pelabelan data yang berbasis di AS yang mempekerjakan pekerja di Kenya, India, dan Uganda untuk bisnis Silicon Valley, mengklaim telah membantu lebih dari 50.000 orang di seluruh dunia. mengatasi kemiskinan melalui kesempatan kerjanya. Berdasarkan Waktu‘s penelitian bersumber dari ratusan halaman dokumen internal, kontrak, dan potongan gaji pekerja, namun, biaya untuk lusinan pekerja berjumlah “penyiksaan” yang digambarkan sendiri untuk tarif per jam yang dibawa pulang di mana saja antara $1,32 dan $2.

[Related: OpenAI’s new chatbot offers solid conversations and fewer hot takes.]

Pekerja menuduh Waktu bahwa mereka bekerja jauh melewati jam yang ditentukan, menyaring 150-250 bagian teks yang mengganggu per hari dan menandai konten untuk pelatihan filter AI ChatGPT. Meskipun layanan konselor kesehatan dilaporkan tersedia, karyawan Sama tetap mengalami kerugian emosional dan mental yang berkepanjangan yang melebihi kemampuan layanan tersebut. Dalam pernyataan yang diberikan kepada WaktuSama membantah beban kerja, dan mengatakan kontraktor mereka hanya diharapkan meninjau sekitar 70 teks per shift.

“Perusahaan-perusahaan ini menghadirkan AI dan otomatisasi kepada kami seolah-olah menghilangkan pekerja, tetapi kenyataannya jarang terjadi,” Paris Marxseorang kritikus budaya teknologi dan penulis Road to Nowhere: Apa yang Salah di Lembah Silikon Tentang Transportasi, menjelaskan kepada PopSci. “… Ini adalah kisah tentang moderator konten Facebook lagi — beberapa di antaranya juga dipekerjakan di Kenya oleh Sama.”

Marx berpendapat satu-satunya cara untuk menghindari eksploitasi mental dan fisik semacam ini akan membutuhkan pengerjaan ulang budaya besar-besaran dalam industri teknologi, sesuatu yang saat ini terasa sangat tidak mungkin. “Ini adalah model pengembangan AI yang dipilih oleh perusahaan-perusahaan ini,” tulis mereka, “[and] mengubahnya akan membutuhkan sepenuhnya mengubah tujuan dan asumsi dasar dari apa yang mereka lakukan.

Sama awalnya menandatangani kontrak moderasi konten dengan OpenAI sebesar $200.000 seputar proyek tersebut, tetapi dilaporkan memutuskan hubungan lebih awal untuk fokus pada “solusi anotasi data visi komputer”. OpenAI saat ini sedang dalam pembicaraan dengan investor untuk mengumpulkan dana dengan penilaian $29 miliar, $10 miliar di antaranya dapat berasal dari Microsoft. Reuters OpenAI yang dilaporkan sebelumnya mengharapkan pendapatan $200 juta tahun ini, dan naik hingga $1 miliar pada tahun 2024.