خبیر‌نیوز | خلاصه خبر

یکشنبه، 18 آبان 1404
سامانه هوشمند خبیر‌نیوز با استفاده از آخرین فناوری‌های هوش مصنوعی، اخبار را برای شما خلاصه می‌نماید. وقت شما برای ما گران‌بهاست.

نیرو گرفته از موتور جستجوی دانش‌بنیان شریف (اولین موتور جستجوی مفهومی ایران):

چت جی پی تی، گراک و کلود قاضی شدند

مهر | دانش و فناوری | یکشنبه، 18 آبان 1404 - 10:18
دانشجویان رشته حقوق دانشگاه کارولینای شمالی ماه گذشته یک دادگاه شبیه سازی برگزار کردند تا دریابند مدل های هوش مصنوعی چگونه عدالت را برقرار می کنند.
هوش،مصنوعي،دادگاه،قضائي،رأي،متهم،پرونده،رجيستر،كارولينا،گناه ...

به گزارش خبرگزاری مهر به نقل از رجیستر، دادگاهی شبیه‌سازی‌شده در ایالات متحده با محوریت نقش هوش مصنوعی در نظام قضائی برگزار شد.
در این دادگاه ساختگی، هنری جاستوس، دانش‌آموز ۱۷ ساله سیاه‌پوست، به اتهام سرقت از دبیرستانی محلی محاکمه شد.
در این مدرسه، دانش‌آموزان سیاه‌پوست تنها ۱۰ درصد از جمعیت را تشکیل می‌دادند.
این شبیه‌سازی بر اساس پرونده‌ای واقعی در ایالت کارولینا طراحی شده بود؛ پرونده‌ای که در آن قاضی، متهم را گناهکار شناخته بود.
جوزف کندی، استاد حقوق و از اعضای «کلینیک عدالت نوجوانان دانشگاه کارولینا» که در رسیدگی به پرونده واقعی نیز حضور داشت، در این آزمایش نقش قاضی را بر عهده گرفت.
این دادگاه فرضی در سال ۲۰۳۶ میلادی و پس از تصویب «قانون عدالت کیفری هوش مصنوعی» مصوب ۲۰۳۵ برگزار شد.
هدف از اجرای آن، بررسی پیامدهای احتمالی استفاده از مدل‌های هوش مصنوعی در فرآیندهای قضائی و برانگیختن تفکر عمومی درباره حدود و خطرات چنین کاربردهایی بود.
شهادت اصلی پرونده از سوی ویکتور فلچر، نوجوان ۱۵ ساله سفیدپوست، ارائه شد.
او در دادگاه گفت: «جاستوس پشت سرم ایستاده بود تا نتوانم فرار کنم.
دانش‌آموز سیاه‌پوست دیگری از من پول خواست.
فکر کردم نمی‌توانم مقابله کنم.
آقای جاستوس از من بزرگ‌تر بود و هیچ شانسی نداشتم.»
وکیل مدافع استدلال کرد که حضور متهم و ظاهر او را نمی‌توان دلیلی کافی برای اثبات قصد مجرمانه دانست و این موارد از «حد تردید معقول» فراتر نمی‌روند.
در ادامه، سه مدل هوش مصنوعی شامل ChatGPT، Grok و Claude وظیفه بررسی شواهد و استدلال‌ها را بر عهده گرفتند.
در ابتدا، ChatGPT رأی به گناهکار بودن متهم داد، در حالی‌که دو مدل دیگر مردد بودند.
اما پس از تحلیل داده‌های ارائه‌شده از سوی «هیئت منصفه» شبیه‌سازی‌شده، ChatGPT نظر خود را تغییر داد و رأی به بی‌گناهی داد.
در پی آن، Grok و Claude نیز رأی خود را با آن هماهنگ کردند.
کندی در بیانیه‌ای پس از برگزاری دادگاه اعلام کرد: «هرچند من همچنان مخالف استفاده از هوش مصنوعی در محاکم کیفری هستم، اما این پرسش برایم مطرح شده که آیا افرادی که امروز از این فناوری‌ها برای مشاوره یا تصمیم‌گیری شخصی استفاده می‌کنند، ممکن است در آینده قضاوت‌های هوش مصنوعی را نیز بی‌چون‌وچرا بپذیرند یا نه.»
به گزارش رجیستر، عملکرد هوش مصنوعی در نظام قضائی تا امروز همواره بدون خطا نبوده است.
تاکنون در بیش از ۵۰۰ پرونده، تصمیم‌های مبتنی بر هوش مصنوعی به اشتباه، تحریم یا حتی شرمساری منجر شده است.
با این حال، موفقیت‌های محدود آن نیز توجه گسترده‌ای را برانگیخته‌اند.
طبق تحقیق «اتحادیه وکلای آمریکا» در سال ۲۰۲۴، حدود ۳۰ درصد وکلا اعلام کرده‌اند که در کار خود از ابزارهای هوش مصنوعی استفاده می‌کنند.