“Mengingat adanya perbedaan antara komentar publik Anda dan laporan tindakan OpenAI, kami meminta informasi tentang perlindungan whistleblower dan konflik kepentingan OpenAI untuk memahami apakah intervensi federal mungkin diperlukan,” tulis Warren dan Trahan dalam surat yang dibagikan secara eksklusif dengan The Verge.
Para anggota parlemen mengutip beberapa contoh di mana prosedur keselamatan OpenAI dipertanyakan. Misalnya, mereka mengatakan, pada tahun 2022, versi GPT-4 yang belum dirilis sedang diuji dalam versi baru mesin pencari Microsoft Bing di India sebelum mendapat persetujuan dari dewan keselamatan OpenAI. Mereka juga mengingat pemecatan singkat Altman dari perusahaan pada tahun 2023, sebagai akibat dari kekhawatiran dewan, sebagian, “terhadap komersialisasi kemajuan sebelum memahami konsekuensinya.”
Surat Warren dan Trahan kepada Altman muncul saat perusahaan tersebut dirundung oleh daftar panjang masalah keselamatan, yang sering kali bertentangan dengan pernyataan publik perusahaan. Misalnya, seorang sumber anonim mengatakan Surat Kabar Washington Post OpenAI terburu-buru dalam melakukan uji keamanan, tim Superalignment (yang sebagian bertanggung jawab atas keamanan) dibubarkan, dan seorang eksekutif keselamatan mengundurkan diri dengan menyatakan bahwa “budaya dan proses keselamatan telah dikesampingkan demi produk yang berkilau.” Lindsey Held, juru bicara OpenAI, membantah klaim tersebut Surat Kabar Washington Postlaporan, dan bahwa perusahaan “tidak mengabaikan proses keselamatan kami, meskipun kami menyadari peluncuran itu membuat tim kami stres.”
Anggota parlemen lain juga telah meminta jawaban atas praktik keselamatan perusahaan, termasuk sekelompok senator yang dipimpin oleh Brian Schatz (D-HI) pada bulan Juli. Warren dan Trahan meminta kejelasan lebih lanjut tentang tanggapan OpenAI terhadap kelompok tersebut, termasuk tentang pembuatan “Jalur Integritas” baru bagi karyawan untuk melaporkan masalah.
Sementara itu, OpenAI tampaknya bersikap ofensif. Pada bulan Juli, perusahaan mengumumkan kemitraan dengan Laboratorium Nasional Los Alamos untuk mengeksplorasi bagaimana model AI tingkat lanjut dapat membantu penelitian biosains dengan aman. Minggu lalu, Altman mengumumkan melalui X bahwa OpenAI bekerja sama dengan Institut Keamanan AI AS dan menekankan bahwa 20 persen sumber daya komputasi di perusahaan akan didedikasikan untuk keselamatan (janji yang awalnya dibuat untuk tim Superalignment yang sekarang sudah tidak ada lagi.) Dalam posting yang sama, Altman juga mengatakan bahwa OpenAI telah menghapus klausul non-disparagement untuk karyawan dan ketentuan yang memungkinkan pembatalan ekuitas yang telah diberikan, isu utama dalam surat Warren.
Warren dan Trahan meminta Altman untuk memberikan informasi tentang bagaimana saluran telepon khusus keselamatan AI barunya untuk karyawan digunakan, dan bagaimana perusahaan menindaklanjuti laporan. Mereka juga meminta “catatan terperinci” tentang semua waktu di mana produk OpenAI telah “melewati protokol keselamatan,” dan dalam keadaan apa suatu produk akan diizinkan untuk melewati tinjauan keselamatan. Para pembuat undang-undang tersebut juga mencari informasi tentang kebijakan konflik OpenAI. Mereka bertanya kepada Altman apakah dia diminta untuk melepaskan diri dari kepemilikan luar apa pun, dan “perlindungan khusus apa yang ada untuk melindungi OpenAI dari konflik kepentingan finansial Anda?” Mereka meminta Altman untuk menanggapi paling lambat tanggal 22 Agustus.
Warren juga mencatat betapa vokalnya Altman tentang kekhawatirannya mengenai AI. Tahun lalu, di hadapan Senat, Altman memperingatkan bahwa kemampuan AI dapat “sangat mengganggu keselamatan publik dan keamanan nasional” dan menekankan ketidakmungkinanan mengantisipasi setiap potensi penyalahgunaan atau kegagalan teknologi. Peringatan ini tampaknya mendapat simpati dari para pembuat undang-undang—di negara bagian asal OpenAI, California, Senator Scott Wiener mendorong RUU untuk mengatur model bahasa besar, termasuk pembatasan yang akan membuat perusahaan bertanggung jawab secara hukum jika AI mereka digunakan dengan cara yang merugikan.