فهرست مطالب
دولت بریتانیا در حال توسعه برنامهای مبتنی بر هوش مصنوعی است که قتل احتمالی را قبل از وقوع جنایت پیشبینی میکند.
به گزارش تکناک، طرحی بحثبرانگیز که بسیاری از کارشناسان، آن را اقدامی نگرانکننده با پیامدهایی مخرب برای حقوق بشر و آزادیهای فردی میدانند.
01
از 06شناسایی مجرم پیش از ارتکاب جرم
بر اساس گزارشهای رسمی، دولت بریتانیا در حال سرمایهگذاری روی پروژهای موسوم به Homicide Prediction Project است، که با استفاده از دادههای پلیس و نهادهای دولتی تلاش میکند احتمال ارتکاب قتل را در افراد مختلف پیشبینی کند. این برنامه هنوز در مرحله تحقیقاتی قرار دارد، اما هدف نهایی آن، استفاده پیشگیرانه برای جلوگیری از وقوع قتل عنوان شده است.
02
از 06انتقادها برای پیشبینی قتل با هوش مصنوعی
کارشناسان هشدار میدهند که چنین پروژهای ممکن است افراد را فقط به مجموعهای از اعداد و ارقام تبدیل کند، که پیامدهای خطرناکی دارد. نتایج این الگوریتمها به احتمال زیاد خطا داشته باشند و در نتیجه، افراد بیگناه به اشتباه شناسایی شوند. همچنین هیچ روشی برای بررسی درستی پیشبینیها وجود ندارد.
بسیاری از منتقدان این پروژه را با سیستمهای سرکوبگر در حکومتهای تمامیتخواه مقایسه کردهاند. الکساندر سولژنیتسین، نویسنده روس و برنده نوبل، در اثر معروف خود مجمعالجزایر گولاگ به سیاست حذف پیشگیرانه افراد در شوروی اشاره میکند؛ افرادی که بدون اثبات جرم و صرفاً بر اساس «احتمال» تهدید بودن، به اردوگاههای کار اجباری فرستاده میشدند.

03
از 06الگوریتمهایی بدون پاسخگویی و بدون شفافیت
امروزه که هوش مصنوعی و الگوریتمها در تصمیمگیری و قضاوت نقش دارند، مشکل نبود پاسخگویی بیشتر احساس میشود. کتی اونیل، ریاضیدان و نویسنده، در کتاب خود به نمونههایی اشاره میکند که در آنها معلمان به دلیل اشتباهات الگوریتمی از کار اخراج شدهاند، بدون اینکه کسی مسئولیت این خطاها را بپذیرد. او این وضعیت را «گودال پاسخگویی» مینامد؛ شرایطی که در آن نه کسی پاسخگو است و نه راهی برای اصلاح اشتباهات وجود دارد.
04
از 06تجربههای مشابه در آمریکا
نمونههای مشابهی از این نوع سیستمها در ایالات متحده نیز دیده شده است. در ایالت لوئیزیانا، الگوریتمی با نام TIGER برای پیشبینی احتمال ارتکاب جرم توسط زندانیان پس از آزادی مورد استفاده قرار میگیرد. حتی یک زندانی ۷۰ ساله و تقریباً نابینا نیز به دلیل ارزیابی «ریسک بالا» از سوی این سیستم، از آزادی مشروط محروم شد.
در پرونده جنجالی State vs. Loomis در ایالت ویسکانسین، از الگوریتمی برای تعیین میزان مجازات استفاده شد، اما دسترسی و بررسی عملکرد داخلی الگوریتم به دلیل مالکیت شرکتی رد شد؛ وضعیتی که به گفته منتقدان، عدالت را در هالهای از ابهام فرو میبرد.
05
از 06نگرانیها درباره پیشبینی قتل با هوش مصنوعی
بیش از همه، آنچه نگرانیها را دوچندان میکند، نوع دادههایی است که برای آموزش این الگوریتم استفاده شدهاند. این دادهها شامل اطلاعات حساسی مانند: وضعیت سلامت روان، اعتیاد، ناتوانی جسمی، سوابق خودآزاری و حتی قربانی بودن در جرائم هستند و این اطلاعات بدون رضایت افراد و با مشارکت نهادهایی مثل وزارت دادگستری، پلیس و پایگاه داده ملی پلیس گردآوری شدهاند.

همچنین دادهها شامل ویژگیهایی نظیر نژاد و جنسیت هستند، که به طور بالقوه میتوانند باعث بروز تبعیض علیه اقلیتهای قومی و گروههای آسیبپذیر شوند. پژوهشها نشان دادهاند که چنین الگوریتمهایی در مورد افراد سیاهپوست دقت کمتری دارند و اغلب الگوهای تبعیضآمیز گذشته را در پیشبینیهای آینده تکرار میکنند.
06
از 06فناوری جایگزین عدالت حقیقی نمیشود
نویسنده این تحلیل در پایان یادآور میشود که پروژه پیشبینی جنایت در کشوری دموکراتیک مانند بریتانیا، آن هم با الهام از روشهایی متعلق به حکومتهای استبدادی، جای نگرانی عمیقی دارد. جامعه هم باید از جنایتکاران محافظت کند و هم از سیستمی فناورمحور که بدون پاسخگویی، تصمیمات سرنوشتسازی برای انسانها میگیرد.