الخميس، 11 فبراير 2021

تشتري شركة التكنولوجيا الذكاء الاصطناعي من Google ؛ روابط مع استخدام الولايات المتحدة للأسلحة


Report: Palantir took over Project Maven, the military AI program too unethical for Google

المؤلف: TRISTAN GREENE

تاريخ النشر: 11 ديسمبر 2019

ليس من المستغرب أن تصعد شركة Palantir ، التي أسسها Peter Thiel ، لملء الفراغ المتبقي بعد أن تخلت Google عن Project Maven في وقت سابق من هذا العام بسبب مخاوف أخلاقية.

Project Maven ، لأولئك غير المألوفين ، هو برنامج البنتاغون لبناء منصة مراقبة تعمل بالذكاء الاصطناعي للمركبات الجوية غير المأهولة. تتمثل المهمة في المقام الأول في بناء نظام للجيش الأمريكي لنشر ومراقبة الطائرات بدون طيار.


من المفترض أن يمنح هذا النظام الحكومة القيادة والسيطرة في ساحة المعركة في الوقت الفعلي والقدرة على تعقب الأهداف ووضع علامة عليها والتجسس عليها دون تدخل بشري. المعلومات المحدودة وغير المصنفة المتوفرة تجعل الأمر يبدو كما لو أن المشروع عبارة عن نظام أسلحة ذكاء اصطناعي قادر على إطلاق النار على أهداف محددة ذاتيًا عندما تصبح متاحة في ساحة المعركة.

عقدت Google العقد سابقًا ، ولكن نظرًا لاستجابة الموظف ، اختارت شركة Mountain View عدم التجديد عند انتهاء العقد في 2019 ، مارس. انسحب ما لا يقل عن عشرة موظفين في عام 2018 بعد أن أعلن الرئيس التنفيذي لشركة Google Cloud Diane Green أن الشركة ستجدد العقد. أدى الضغط الداخلي اللاحق إلى رفض Google في النهاية تقديم عطاءات للحصول على العقد مرة أخرى.

 Cloud CEO Diane Greene


لم يكن على البنتاغون أن ينظر بعيدًا للعثور على شركة مستعدة لمواصلة العمل حيث تركت أخلاقيات Google. يُقال إن شركة Palantir ، وهي الشركة التي تدير شبكات المراقبة "ICE" و "الجمارك وحماية الحدود" وتبني برامج الشرطة التي تتحايل على عملية مذكرة التوقيف ، تعمل في إطار مشروع Maven.

كشفت بيزنس إنسايدر عن الأخبار ، كتبت المراسل بيكي بيترسون أن شخصًا على دراية بالمشروع قال:

تعمل شركة Palantir مع وزارة الدفاع لبناء ذكاء اصطناعي يمكنه تحليل موجزات الفيديو من الطائرات بدون طيار ... داخليًا في Palantir ، حيث يتم الاحتفاظ بأسماء العملاء بالقرب من السترة ، ويشار إلى المشروع باسم "Tron" ، في إشارة إلى 1982 فيلم.

في السابق ، أشار بيتر ثيل ، مؤسس شركة Palantir Corporation والشريك القديم لدونالد ترامب ، إلى انسحاب Google من المشروع على أنه خيانة. في يونيو 2018 ، في حديثه في المؤتمر الوطني للحفظ في واشنطن ، أشار تيل إلى قرار Google بالمضي قدمًا في مشروع Dragonfly (برنامج Google المثير للجدل لإنشاء البحث عن الصين) مع التخلي عن مشروع البنتاغون Maven. قال إن وكالة المخابرات المركزية يجب أن تحقق في جوجل:

هل لأنهم يعتبرون أنفسهم مخترقين تمامًا لدرجة أنهم انخرطوا في قرار يبدو خائنًا للعمل مع الجيش الصيني وليس الجيش الأمريكي ... لأنهم يتخذون نوعًا من [القرار] العقلاني والسيئ على المدى القصير الذي إذا لم تخرج التكنولوجيا من الباب الأمامي ، يتم سرقتها من الباب الخلفي.

تجدر الإشارة إلى أن Google تعمل على ما يبدو مع الحكومة الصينية ، وليس بالضرورة مع الجيش الصيني.

افتراض ثيل ، الذي ردده الرئيس التنفيذي لشركة بلانتير ، أليكس كارب ، هو أنه من الواجب الوطني لشركات التكنولوجيا الكبرى أن تفعل ما تقوله حكومة الولايات المتحدة. بالطبع ، لم يكن "بيتر ثيل" يشعر دائمًا بهذه الطريقة. لقد استثمر في شركات ناشئة صينية ، وقدم عطاءات للحصول على عقود ، وعمل مع وكالات صينية من قبل.

ومع ذلك ، فإن ما فشل "بيتر ثيل" في ذكره ، مرارًا وتكرارًا عندما يتحدث عن وطنيته ، هو أن حكومة الولايات المتحدة ليس لديها سياسة رسمية بشأن الاستخدام الأخلاقي للذكاء الاصطناعي ولا أي إرشادات متاحة للجمهور حول كيفية السماح للجيش باستخدام AI.

نحن على أعتاب حرب مدعومة بالذكاء الاصطناعي ، ولا توجد اتفاقية جنيف لمنع دول مثل روسيا والولايات المتحدة والصين من نشر جحافل من آلات القتل المستقلة المصممة للبحث عن السكان المدنيين وتدميرهم.

هناك الكثير من التقنيات التي لا نستخدمها في الحرب لأنها غير أخلاقية. لم نعد نستخدم غاز الخردل أو الفوسفور الأبيض ، على سبيل المثال ، لأنهما غير إنسانيتين. يجب أن تندرج آلات القتل المستقلة في نفس الفئة. وبينما يدعي البنتاغون أن Project Maven يتعلق فقط بالتقاط الصور ، يمكن لأي مطور أن يخبرك أن تدريب طائرة بدون طيار على إطلاق شيء ما يعمل بنفس الطريقة سواء كانت تحمل كاميرا أو سلاحًا.

حتى تتوصل حكومة الولايات المتحدة وحلفاؤها إلى لوائح صارمة للاستخدام العسكري للذكاء الاصطناعي ، يبدو أنه من غير الأخلاقي لأي شخص بناء معدات ذكاء اصطناعي ذات استخدام مزدوج لها 


منظر أفغانستان من طائرة بدون طيار

 (2021)هذا مقتطف من كتاب First Platoon بقلم آني جاكوبسن

في حاوية فولاذية داخل بؤرة استيطانية أمريكية في جنوب أفغانستان ، كان عامل مطار يدعى كيفين يشاهد رجلاً يتغوط في حقل مزارع. كان الرجل يرتدي قبعة أرجوانية. كان ذلك عام 2012 ، وكان كيفن يعمل مديرًا لمهمة فريق نظام المراقبة الأرضية المستمر المتمركز هنا في موقع Combat Outpost Siah Choy ، الواقع في قلب منطقة Zhari المضطربة.

قضى فريق PGSS 24 ساعة في اليوم ، سبعة أيام في الأسبوع ، في مشاهدة منطقة تضم 20 قرية أفغانية صغيرة أو نحو ذلك. كانت وظيفتهم ذات شقين. من ناحية ، شاهدوا أربع فصائل فردية من الجنود الأمريكيين الذين تم نشرهم في هذه المنطقة ، بما في ذلك حوالي 30 شابًا كانوا يشكلون الفصيلة الأولى. كلما خرجت إحدى هذه الفصائل من القاعدة لإجراء دورية ، قام فريق PGSS "بتغطية" الجنود ، متابعًا مؤشرات هجوم وشيك. باقي الوقت ، لاحظ الفريق السكان المحليين للاشتباه في وجود نشاط إرهابي ، ولهذا كان كيفن يراقب الرجل في القبعة الأرجوانية السؤال المطروح: هل كان يجلس القرفصاء للذهاب إلى الحمام ، أم لدفن عبوة ناسفة؟

الأيروستات هو بالون مراقبة عملاق. تمتص الكاميرات وأجهزة الاستشعار الموجودة على متنها كميات هائلة من البيانات حول ما يحدث على الأرض. تتم معالجة هذه البيانات الخام وتنظيمها وتجميعها في منتج استخباراتي للجيش بفضل البرامج التي طورتها شركة Palantir Technologies. تم إطلاق شركة Silicon Valley الناشئة منذ ما يقرب من عقدين من الزمن بأموال أولية من وكالة المخابرات المركزية ، وتمكنت من حل مشكلة يعاني منها البنتاغون: بعد سنوات من تراكم فيديو المراقبة الذي تم التقاطه بواسطة الطائرات بدون طيار والمناطيد والطائرات التي تحلق فوق العراق ، تمكنت القوات المسلحة ، حرفيا ، ملايين الساعات من اللقطات الموجودة في الأرشيف. 


 ماذا تفعل بكل هذه المعلومات؟ يمكن لبرنامج Palantir فحص كميات من البيانات الأولية أو غير المهيكلة ، ثم تنظيمها وهيكلها بطريقة تجعل ميزات البحث والاكتشاف ممكنة. ابحث واكتشف ، على سبيل المثال ، رجل يرتدي قبعة أرجوانية.


كيفن هو خبير في ما يسمى بتحليل نمط الحياة ، وهو نظام يتضمن إنشاء هوية الشخص بناءً على عاداته المتراكمة ، والتي يتم التقاط الكثير منها من خلال المراقبة العامة. كان الرجل الذي يذهب إلى الحمام موضع اهتمام الولايات المتحدة ، وكان كيفن يعمل على تأسيس أسلوب حياته في السعي وراء منهجية جديدة تسمى الذكاء المستند إلى النشاط ، أو ABI. الفرضية الأولى والأساسية للذكاء القائم على النشاط: أنت ما تفعله.

كان نظام التصوير ، المسمى MX-15 ، الذي تم توصيله بالجزء السفلي للمهبط بحجم كرة الشاطئ تقريبًا. كان وزنها 100 رطل وتحمل مجموعة من الكاميرات لأغراض المخابرات والمراقبة والاستطلاع. كانت قدرته على رؤية الأشخاص والأشياء على الأرض غير عادية ؛ يتذكر كيفن أنه كان بإمكانه إجراء تعديل غير عادي على مؤخرة بندقية AK-47 من على بعد ميلين. تم بث موجز الصور هذا على العديد من الشاشات مقاس 40 بوصة داخل الحاوية الفولاذية حيث عمل فريق PGSS. بشكل منفصل ، ذهبت البيانات إلى قاعدة بيانات Palantir للمعالجة.

بدأ الذكاء القائم على النشاط في مسرح الحرب بافتراض أنك ما تفعله ، لكنك الآن مدفوع إلى عالم جديد ، كما يقول باتريك بيلتجن ، كبير مهندسي المهمة الذي عمل على نظام المراقبة المستمرة ARGUS-IS.


الأسباب النظرية: لأننا نعرف ما فعلته ، نعتقد أننا نعرف ما ستفعله بعد ذلك. "تمامًا مثل [الفيلم] تقرير الأقلية المتوقع في عام 2002." اليوم ، تستخدم الحكومة الفيدرالية الأمريكية بعض هذه المنهجيات نفسها ، بما في ذلك وزارة الصحة والخدمات الإنسانية ، لتحديد وتتبع وتحديد الأشخاص الذين قد يكونون يحملون فيروس كورونا. يثير هذا مخاوف بين الباحثين القانونيين بشأن الحالة المزدهرة للمراقبة البيومترية.


من يتحكم في البيانات التي يتم حفظها كدليل محتمل ، وما هي البيانات التي يتم حذفها - بما في ذلك البيانات التي يمكن أن تعمل في الدفاع؟ ماذا يحدث لسيادة القانون عندما يتم مراقبة المواطنين الأفراد باستمرار دون معرفة أو الوصول إلى المعلومات التي يتم جمعها عنهم؟


وزارة الدفاع لن تجيب على هذه الأسئلة بحجة أن أنظمة القتال لديها سرية. لكن أنظمة المراقبة المستمرة المشابهة لنظام PGSS تُستخدم الآن لمراقبة وجمع البيانات عن الأمريكيين في الوطن ، دائمًا تحت فرضية سيادة القانون. تتم مناقشة قضايا الخصوصية المتعلقة بالمراقبة المستمرة في المحاكم بوتيرة بطيئة ، بينما تتقدم التطورات في التعلم الآلي إلى الأمام بسرعة تشبه الخيال العلمي. يرى أليكس كارب ، الشريك المؤسس والرئيس التنفيذي لشركة Palantir ، أن ذلك يمثل تحديًا وجوديًا لشركة Palatir. يقول كارب: "سيتم تحديد القدرة الحالية والمستقبلية للسيطرة على سيادة القانون وتطبيقه من خلال قدرتنا على تسخير وإتقان الذكاء الاصطناعي وسابقه ، التعلم الآلي.

ليست هناك تعليقات:

إرسال تعليق