Saat pemerintah Inggris berupaya mempercepat adopsi AI dengan melonggarkan regulasi, Perhimpunan Pengacara berpendapat bahwa hukum yang ada sudah cukup untuk integrasi kecerdasan buatan di sektor hukum. Departemen Sains, Inovasi & Teknologi (DSIT) telah memulai panggilan untuk bukti guna membentuk 'Laboratorium Pertumbuhan AI,' yang bertujuan untuk memfasilitasi penerapan teknologi otonom melalui pengecualian regulasi sementara. Pemerintah berargumen bahwa banyak regulasi yang ada sudah usang dan tidak memperhitungkan pengambilan keputusan yang didorong oleh mesin.

Para menteri percaya bahwa dengan bergerak lebih cepat daripada pesaing internasional, Inggris dapat memperoleh keuntungan ekonomi yang signifikan, berpotensi menambah £140 miliar pada output nasional pada tahun 2030. Analisis awal mereka menyoroti sektor layanan hukum sebagai salah satu di mana penghapusan hambatan hukum yang tidak perlu dapat memberikan manfaat ekonomi yang substansial dalam dekade mendatang.

Namun, profesi hukum, yang diharapkan akan mendapatkan manfaat dari deregulasi ini, tidak mendukung pengecualian semacam itu. Dalam tanggapan resminya, Perhimpunan Pengacara menekankan bahwa kerangka hukum saat ini cukup kuat untuk mendukung integrasi AI. Masalah utama tidak terletak pada regulasi itu sendiri, tetapi pada ketidakpastian seputar penerapannya. Meskipun dua pertiga pengacara sudah menggunakan alat AI, kebingungan tetap menjadi hambatan signifikan untuk integrasi yang lebih dalam.

Ian Jeffery, CEO Perhimpunan Pengacara, menyatakan bahwa meskipun inovasi AI sangat penting untuk sektor hukum, tantangan tidak terutama disebabkan oleh beban regulasi. Sebaliknya, tantangan muncul dari ketidakpastian terkait biaya, penanganan data, dan keterampilan yang diperlukan untuk adopsi AI. Profesi ini mencari peta jalan praktis untuk menavigasi kompleksitas tanggung jawab dan perlindungan data, terutama terkait apakah data klien harus dianonimkan sebelum digunakan dalam sistem AI.

Kekhawatiran menjadi semakin rumit ketika kesalahan terjadi, seperti ketika alat AI memberikan nasihat hukum yang salah. Masih belum jelas siapa yang bertanggung jawab dalam situasi semacam itu—pengacara, firma, pengembang AI, atau penanggung asuransi. Ada juga ambiguitas seputar persyaratan pengawasan, terutama apakah seorang pengacara manusia harus mengawasi setiap penggunaan AI. Masalah ini sangat mendesak untuk kegiatan hukum yang terdaftar seperti perwakilan di pengadilan dan pengalihan hak, di mana praktisi harus memahami implikasi penggunaan bantuan otomatis terhadap tanggung jawab profesional mereka.

Sementara pemerintah telah berusaha meyakinkan publik bahwa sandbox akan mencakup langkah-langkah perlindungan untuk melindungi hak-hak dasar, Perhimpunan Pengacara menyatakan kehati-hatian terhadap langkah-langkah yang dapat mengorbankan perlindungan konsumen demi efisiensi. Jeffery menekankan bahwa kemajuan teknologi di bidang hukum tidak boleh mengekspos klien pada risiko yang tidak diatur. Organisasi ini terbuka untuk berkolaborasi dalam 'sandbox layanan hukum,' asalkan tetap mempertahankan standar profesional daripada menghindarinya. Bagi Perhimpunan Pengacara, prioritas tetap pada integritas sistem peradilan seiring dengan evolusi AI.