الصين.. نظام ذكاء اصطناعي قادر على كشف الجرائم قبل حدوثها
تدرس الصين تطوير وتنفيذ تقنيات جديدة مدعومة بالذكاء الاصطناعي في الأماكن العامة، من شأنها أن تسمح للدولة بالتنبؤ بارتكاب الجرائم وتنظيم الاحتجاجات.
ويعتمد النظام الجديد على كمية هائلة من البيانات التي تم جمعها عن عادات 1.4 مليار مواطن واستخدام أدوات التعرف على الوجه التي تستخدم في البلاد منذ عدة سنوات، وفقا لصحيفة ”ABC“ الإسبانية.
وبفضل هذه الأداة الجديدة يمكن للدولة الصينية، على سبيل المثال، أن تتوقع وتكشف ما يمكن أن تقدم عليه مجموعة مكونة من ثلاثة أشخاص لديهم سجلات جنائية يسيرون معا في أحد أحياء بكين.
كما سيكون من الممكن أيضا متابعة تحركات النشطاء الذين شاركوا في الاحتجاجات أو الأشخاص الذين يعانون من نوع ما من المشاكل العقلية.
وفي اللحظة التي يكتشف فيها نظام الذكاء الاصطناعي سلوكا مشبوها لدى فرد، أو أمرا خارج الروتين، يمكنه إخطار السلطات للتحقيق في ارتكاب جريمة محتملة.
التقنية التي تدرس بكين تطبيقها منذ فترة طويلة، من شأنها أن تساعد في السيطرة ليس فقط على المجرمين المحتملين، ولكن أيضا على فئات أخرى مثل المهاجرين والأقليات العرقية والأشخاص الذين يعانون من نوع من الاضطرابات العقلية.
وأشارت وسائل الإعلام الأمريكية، إلى أن نظام الذكاء الاصطناعي سيكون مبرمجا لعدم مراقبة أشخاص معينين، وتحديدا مسؤولي الدولة.
وهذا النظام الذي يتم تطويره من قبل شركة ”Megvii“ الصينية الناشئة، قادر على معالجة ملفات كبيرة تحتوي على معلومات عن المواطنين الصينيين لدى الشرطة، مثل صور الوجوه والسيارات وسجلات الحالات الخاصة بالحوادث.
وعلى الرغم من أن هذه التكنولوجيا لم تستخدم حتى الوقت الحالي، إلا أن الصين لديها بالفعل تقنيات مماثلة طورتها شركات أخرى، من بينها نظام قادر على التنبؤ بالاحتجاجات الاجتماعية طورته شركة Hikvision.
ويجمع هذا النظام بيانات المواطنين الصينيين الذين يحاولون تقديم التماسات وشكاوى حول المسؤولين المحليين لدى السلطات العليا، ويقيمها على مدى احتمالية سفرهم إلى بكين مستقبلا، ويتم استخدام البيانات لتدريب نماذج التعلم الآلي.
انتقادات
ويسلط خوان إجناسيو روييت، أستاذ الذكاء الاصطناعي والروبوتات في جامعة لاريوخا الدولية بإسبانيا، الضوء على ”خطرين كبيرين“ في التقنية.
وقال إن ”استخدام تلك الأنظمة يؤثر على الخصوصية، حيث يتم جمع البيانات والمعلومات من المجال العام، من خلال الكاميرات التي نصبتها الدولة في الشوارع، وكذلك في القطاع الخاص لتتم انتهاك خصوصية الشخص بالكامل“.
وأضاف روييت: ”الخطر الثاني هو أنهم يقوضون الفكرة الأساسية للحرية الفردية، بمعنى أن الفرد قد يفكر في ارتكاب عمل غير قانوني، ولكن عندما يحين الوقت فمن الممكن أن يغير رأيه، فيما يعمل نظام الذكاء الاصطناعي مع الاحتمالية وفقا للأحداث الماضية، ومن الممكن أن يرتكب أخطاء“.