سبد خرید
{{item.quantity}}
تعداد را بنویسید. بیش‌تر از 0 بنویسید. کم‌تر از {{item.product.variant.max + 1}} بنویسید.
{{item.promotion_discount|number}} تومان تخفیف
{{item.total|number}} تومان
مبلغ قابل پرداخت
{{model.subtotal|number}} تومان
ثبت سفارش
سبد خرید شما خالی است
هوش مصنوعی در دادگاه؟ هشدار جدی دادگاه عالی بریتانیا به وکلای خاطی: منابع جعلی AI ممکن است به زندان ختم شود!

هوش مصنوعی در دادگاه؟ هشدار جدی دادگاه عالی بریتانیا به وکلای خاطی: منابع جعلی AI ممکن است به زندان ختم شود!

بحران اعتماد: وقتی وکلا به منابع جعلی هوش مصنوعی استناد می‌کنند

در یکی از پر سر و صداترین بیانیه‌های اخیر در سیستم قضایی بریتانیا، دادگاه عالی هشدار داده که استفاده از منابع ساختگی تولیدشده توسط هوش مصنوعی مانند ChatGPT در پرونده‌های حقوقی ممکن است منجر به تحریف عدالت شود — جرمی که در برخی شرایط می‌تواند تا حبس ابد مجازات داشته باشد.

داستان از کجا شروع شد؟

در دو پرونده مهم که اخیراً در انگلستان بررسی شد، مشخص شد وکلا بدون بررسی و اعتبارسنجی منابع، از داده‌های تولیدشده توسط ابزارهای هوش مصنوعی استفاده کرده‌اند. این منابع حقوقی در ظاهر واقعی و قانونی بودند، اما در واقع کاملاً ساختگی بودند — چیزی شبیه «هلوسینیشن» AI.

جزئیات دو پرونده واقعی

پرونده اول: دعوای ۹۰ میلیون پوندی علیه Qatar National Bank

  • یکی از وکلا در این پرونده، ۱۸ مرجع حقوقی ارائه داد.
  • اما بررسی‌ها نشان داد هیچ‌کدام از این منابع در هیچ پایگاه داده حقوقی یا سابقه قضایی وجود نداشته‌اند.
  • قاضی اعلام کرد وکیل حتی خودش منابع را نساخته، بلکه از موکلش گرفته که «احتمالاً» از ابزار AI استفاده کرده!

پرونده دوم: تخلیه مسکن توسط شهرداری Haringey لندن

  • در این پرونده، وکیل از ۵ منبع جعلی در دفاعیه‌اش استفاده کرد.
  • خودش ادعا کرد که از ChatGPT استفاده نکرده، اما منابع را از خلاصه‌هایی گرفته که گوگل یا سایر ابزارهای آنلاین به‌صورت خودکار تولید کرده بودند.

واکنش رسمی دادگاه عالی بریتانیا

قاضی ارشد "کالین شارپ" به‌شدت به این موضوع واکنش نشان داد و گفت:


«استفاده از منابع جعلی در دادگاه، حتی اگر سهواً باشد، تحریف عدالت محسوب می‌شود و می‌تواند به مجازات‌های سنگین مانند جریمه‌های مالی، لغو پروانه وکالت و حتی حبس ختم شود.»


چرا هوش مصنوعی ممکن است خطرناک باشد؟

"هلوسینیشن" AI چیست؟

وقتی ابزارهایی مانند ChatGPT اطلاعاتی کاملاً ساختگی ولی منطقی و متقاعدکننده ارائه می‌دهند، به این حالت "هلوسینیشن" می‌گویند. این پدیده در حوزه حقوقی می‌تواند بسیار خطرناک باشد، چون ظاهر منابع معتبر است اما حقیقت ندارد.

توصیه‌ی دادگاه: چطور از هوش مصنوعی استفاده کنیم؟

  • هرگز بدون بررسی و اعتبارسنجی، منابع تولیدشده توسط AI را در پرونده‌های قضایی استفاده نکنید.
  • حتماً از ابزارهای معتبر حقوقی و دیتابیس‌های رسمی مثل Westlaw یا LexisNexis استفاده کنید.
  • اگر از AI کمک می‌گیرید، فقط برای خلاصه‌سازی و ایده‌پردازی استفاده کنید، نه برای ارائه‌ی منابع رسمی.

نتیجه‌گیری: آینده‌ی وکالت در عصر AI

هوش مصنوعی می‌تواند ابزار توانمندی برای وکلا و مشاوران حقوقی باشد، اما اگر بدون نظارت و دقت از آن استفاده شود، می‌تواند فاجعه‌ساز شود.

تیم گوشی آنلاین
نوشته شده در 14 آبان 1404 توسط تیم گوشی آنلاین
اشتراک‌گذاری
همچنین بخوانید...

دیدگاه خود را بنویسید

  • {{value}}
این دیدگاه به عنوان پاسخ شما به دیدگاهی دیگر ارسال خواهد شد. برای صرف نظر از ارسال این پاسخ، بر روی گزینه‌ی انصراف کلیک کنید.
دیدگاه خود را بنویسید.
جستجو
برای جستجو در نوشته‌های وب‌سایت، کلمه‌ی کلیدی مورد نظر خود را بنویسید و بر روی دکمه کلیک کنید.
عضویت خبرنامه
عضو خبرنامه ماهانه وب‌سایت شوید و تازه‌ترین نوشته‌ها را در پست الکترونیک خود دریافت کنید.
پست الکترونیکی را بنویسید.
بایگانی نوشته‌ها
تمامی حقوق مادی و معنوی این سایت متعلق به شرکت آوامهرنازنین (فروشگاه اینترنتی گوشی آنلاین) می‌باشد.
دسته‌بندی محصولات