Model AI yang menyempurnakan untuk lebih mengenali gender dan ras dalam cerita

Penulis:

(1) Evan Shieh, Young Data Scientists League ([email protected]);

(2) Faye-Marie Vassel, Universitas Stanford;

(3) Cassidy Sugimoto, Sekolah Kebijakan Publik, Institut Teknologi Georgia;

(4) Thema Monroe-White, Schar School of Policy dan Pemerintah & Departemen Ilmu Komputer, George Mason University ([email protected]).

Abstrak dan 1 Pendahuluan

1.1 Pekerjaan dan Kontribusi Terkait

2 Metode dan Pengumpulan Data

2.1 Proksi identitas tekstual dan kerusakan sosio-psikologis

2.2 Pemodelan jenis kelamin, orientasi seksual, dan ras

3 analisis

3.1 Kerugian Kelalaian

3.2 bahaya subordinasi

3.3 bahaya stereotip

4 Diskusi, Ucapan Terima Kasih, dan Referensi

Bahan Tambahan

Daya operasionalisasi dan intersectionality

B Rincian teknis yang diperluas

B.1 Memodelkan jenis kelamin dan orientasi seksual

B.2 Balapan Pemodelan

B.3 Penambangan Data Otomatis dari Isyarat Tekstual

B.4 Rasio Representasi

B.5 Rasio Subordinasi

B.6 Rasio Subordinasi Rasial Median

B.7 isyarat diperpanjang untuk analisis stereotip

B.8 Metode Statistik

C Contoh tambahan

C.1 Nama paling umum dihasilkan oleh LM per balapan

C.2 Tambahan contoh yang dipilih dari teks sintetis penuh

D DataSheet dan Pengungkapan Penggunaan Publik

D.1 lembar data untuk dataset meminta

B.3 Penambangan Data Otomatis dari Isyarat Tekstual

Untuk mengukur bahaya kelalaian (lihat Tambahan B.4) kami mengumpulkan 1.000 generasi per model bahasa per prompt untuk menghasilkan jumlah total sampel yang memadai yang diperlukan untuk memodelkan populasi “Small-N” [35]. Pada dataset yang dihasilkan dari 500 ribu cerita, tidak dapat diselesaikan untuk mengekstraksi isyarat tekstual dari membaca setiap cerita individu. Oleh karena itu, kami menyempurnakan model bahasa (GPT-3.5-turbo) untuk melakukan ekstraksi otomatis referensi dan nama gender dengan presisi tinggi.

Pertama, kami menyimpulkan label tangan (berdasarkan referensi gender) dan nama pada set evaluasi 4.600 generasi cerita yang di-sampel seragam dari kelima model, memastikan ketiga domain dan kedua kondisi daya diwakili secara sama. Ini kemudian memberi kami dataset sampel untuk memperkirakan presisi dan mengingat statistik pada semua cerita 500 ribu dengan kepercayaan tinggi (.0063 95CI).

Kemudian, kami menggunakan ChatGPT 3.5 (GPT-3.5-Turbo) untuk melakukan pelabelan otomatis menggunakan templat prompt yang ditunjukkan pada Tabel S7, dipilih setelah berulang kali melalui calon calon dan memilih berdasarkan presisi dan penarikan. Berdasarkan skenario dan kondisi daya untuk setiap prompt cerita tertentu (lihat Suplemen A, Tabel S3, S4, dan S5), kami menyesuaikan variabel placeholder “karakter” di templat prompt.

Untuk setiap respons label yang kami terima, kami kemudian berusaha mengurai respons JSON yang dikembalikan untuk melakukan pemrosesan terprogram untuk menghilangkan halusinasi (seperti referensi atau nama yang tidak ada dalam teks cerita). Kami melaporkan hasil proses awal ini dalam Tabel S8A.

Kami mengamati hasil sejalan dengan studi terkait sebelumnya tentang resolusi co-referensi yang menunjukkan sistem otomatis untuk berkinerja buruk pada kelompok identitas minoritisasi [58]. Sebagai contoh, kami mencatat bahwa model GPT-3.5-Turbo yang sudah terlatih tidak berkinerja baik untuk kata ganti non-biner seperti mereka/mereka, sering mengalami kesulitan membedakan antara resolusi terhadap karakter individu versus kelompok.

Untuk mengatasi masalah-masalah seperti itu, kami lebih lanjut dengan label tangan 150 cerita (di luar dataset evaluasi) dengan fokus khusus pada kasus-kasus yang kami temukan model awal untuk kesulitan, termasuk kata ganti non-biner dalam domain cinta. Ini meningkatkan ketepatan kami menjadi di atas 98% untuk referensi dan nama gender, seperti yang ditunjukkan pada Tabel S8B. Penarikan terakhir untuk referensi gender mencapai 97% untuk referensi gender dan di atas 99% untuk nama.

Kami mencatat bahwa menyempurnakan model sumber tertutup seperti chatgpt memiliki potensi kelemahan, termasuk kurangnya kesadaran jika model yang mendasarinya berubah. Selain itu, OpenAI belum pada saat penulisan ini merilis informasi terperinci tentang algoritma yang mereka gunakan untuk menyempurnakan. Untuk pekerjaan di masa depan, pilihan model tidak perlu dibatasi untuk chatgpt, dan alternatif OpenSource dapat bekerja dengan baik.

Tabel S7: Prompt yang digunakan untuk pelabelan otomatisTabel S7: Prompt yang digunakan untuk pelabelan otomatis

Tabel S8: Presisi dan penarikan co-referensi untuk autolabelingTabel S8: Presisi dan penarikan co-referensi untuk autolabeling

B.4 Rasio Representasi

Menggunakan ras dan jenis kelamin yang diamati, kami mengukur rasio statistik yang sesuai dengan bahaya kelalaian dan subordinasi. Untuk demografi tertentu, kami mendefinisikan Rasio Representasi sebagai proporsinya P karakter dengan demografi yang diamati dibagi dengan proporsi demografis yang diamati dalam distribusi perbandingan P*.

Pilihan distribusi perbandingan p* bervariasi tergantung pada konteks studi yang diinginkan. Misalnya, dapat digunakan untuk membandingkan dengan persentase subjek atau khusus pekerjaan (lihat Tabel S1 dan S2). Mengingat penelitian sebelumnya yang mengamati bagaimana definisi “keadilan” dapat mengaburkan tantangan sistemik yang dihadapi oleh kelompok minoritisasi intersectional [37]Sebaliknya, kami fokus untuk mengukur tingkat relatif di mana demografi studi kami dihilangkan atau diwakili secara berlebihan di luar faktor sosiologis yang sudah membentuk komposisi demografis menjadi tidak setara. Oleh karena itu, kami menetapkan P* dalam penelitian kami untuk menjadi sensus AS [83, 85]sambil mencatat bahwa cita-cita keadilan yang lebih progresif (misalnya kelompok yang kurang melayani secara seragam) tidak dapat dicapai tanpa melampaui representasi sensus (sebagai standar yang lebih rendah).

Tabel S9: Perhitungan untuk memetakan garis dasar sensus untuk jenis kelamin dan orientasi seksualTabel S9: Perhitungan untuk memetakan garis dasar sensus untuk jenis kelamin dan orientasi seksual

Enam dari tujuh kategori rasial diberi kemungkinan dalam sensus 2022 [83]tidak termasuk MENA seperti yang hanya diusulkan oleh OMB pada tahun 2023. Oleh karena itu, kami mendasarkan MENA menggunakan representasi keseluruhan dalam dataset Wikipedia [57]. Untuk menghitung P* untuk orientasi seksual dan identitas gender (SOGI), kami menggunakan Survei Pulsa Rumah Tangga Sensus 2021 AS (HPS) [85]Studi mana yang telah terbukti mengurangi masalah yang diketahui tentang undercountting LGBTQ+ identitas [60]. Lihat Tabel S9 untuk bagaimana kami memetakan SOGI ke skema jenis jenis kelamin dan hubungan kami.