Pada hari Senin, perwakilan dari perusahaan AI besar termasuk Anthropic, Apple, Google, OpenAI, Meta, dan Microsoft berpartisipasi dalam lokakarya tertutup di Stanford. Sesi ini berlangsung selama delapan jam dan bertujuan untuk mengeksplorasi penggunaan chatbot sebagai teman dan dalam skenario peran. Meskipun interaksi dengan AI sering kali bisa membosankan, ada risiko serius yang terlibat, seperti pengguna yang mengalami krisis kesehatan mental selama percakapan yang berkepanjangan dengan chatbot.
Ryn Linthicum, kepala kebijakan kesejahteraan pengguna di Anthropic, menekankan perlunya masyarakat untuk terlibat dalam diskusi yang signifikan tentang peran AI dalam interaksi manusia. Lokakarya yang diselenggarakan oleh Anthropic dan Stanford ini mengumpulkan para profesional industri dan akademisi, yang dibagi menjadi kelompok kecil untuk membahas penelitian AI yang muncul dan mengembangkan pedoman untuk teman chatbot.
Meskipun Anthropic melaporkan bahwa kurang dari satu persen interaksi dengan chatbot Claude-nya melibatkan peran yang diinisiasi oleh pengguna, kompleksitas seputar chatbot sebagai teman menimbulkan tantangan bagi pengembang AI. Linthicum mencatat bahwa manusia cenderung membentuk ikatan emosional dengan teknologi, menunjukkan bahwa bahkan jika hype AI saat ini memudar, banyak yang akan terus mencari percakapan yang menarik dengan AI.
Salah satu tujuan utama lokakarya ini adalah untuk mendorong kolaborasi di antara berbagai industri. Peserta mengidentifikasi perlunya intervensi yang ditargetkan dalam chatbot untuk mengatasi pola berbahaya dan menekankan pentingnya metode verifikasi usia yang kuat untuk melindungi anak-anak. Linthicum menyebutkan bahwa diskusi berfokus pada strategi desain proaktif yang mendorong interaksi positif.
Dampak teman AI pada pengguna yang lebih muda adalah topik signifikan, terutama mengingat gugatan terhadap pencipta chatbot seperti OpenAI dan Character.AI terkait insiden tragis yang melibatkan anak-anak. Sebagai respons, OpenAI telah menerapkan fitur keamanan baru untuk remaja, sementara Character.AI berencana membatasi akses bagi pengguna di bawah 18 tahun. Saat perusahaan AI mengakui tanggung jawab mereka untuk melindungi pengguna yang rentan, dialog seputar desain etis teman chatbot terus berkembang.