Share to: share facebook share twitter share wa share telegram print page

استهداف قطاع غزة بمساعدة الذكاء الاصطناعي

استهداف قطاع غزة بمساعدة الذكاء الاصطناعي
جزء من الحرب الفلسطينية الإسرائيلية 2023
معلومات عامة
البلد دولة فلسطين  تعديل قيمة خاصية (P17) في ويكي بيانات
الموقع غزة
القادة
الجيش الإسرائيلي حركة حماس
الوحدات
الوحدة 8200 بحماس والجهاد الإسلامي الفلسطيني

خلال الحرب الفلسطينية الإسرائيلية 2023، استخدم الجيش الإسرائيلي الذكاء الاصطناعي للقيام بشكل سريع وتلقائي بمعظم عملية تحديد ما يجب قصفه. قامت إسرائيل بتوسيع نطاق قصفها لقطاع غزة بشكل كبير، والذي كان محدودًا في الحروب السابقة بسبب نفاد أهداف سلاح الجو الإسرائيلي.

وتضمنت أدواتهم "حبسورة"، وهو الذكاء الاصطناعي الذي كان يُعتقد أنه يقوم تلقائيًا بمراجعة بيانات المراقبة بحثًا عن المباني والمعدات والأشخاص الذين يحتمل أن ينتموا إلى العدو، وعند العثور عليهم، يقترح توصية استهداف لمحلل بشري ليقرر ما إذا كان سيتم تمريرها إلى أم لا. الميدان. وكان هناك نموذج آخر هو لافندر، وهي "قاعدة بيانات مدعومة بالذكاء الاصطناعي"، والتي أدرجت عشرات الآلاف من الرجال الفلسطينيين المرتبطين بالذكاء الاصطناعي بحماس أو الجهاد الإسلامي الفلسطيني، والتي استخدمت للتوصية بالهدف.

حبسورة

استخدمت إسرائيل نظام الذكاء الاصطناعي المسمى "حبسورة" أي "الإنجيل" لتحديد الأهداف التي ستقصفها القوات الجوية الإسرائيلية.[1] ويقدم تلقائيًا توصية استهداف إلى محلل بشري،[2][3] الذي يقرر ما إذا كان سيتم تمريرها إلى الجنود في الميدان.[3] ويمكن أن تكون التوصيات أي شيء، بدءًا من المقاتلين الأفراد، وقاذفات الصواريخ، ومراكز قيادة حماس،[2] إلى المنازل الخاصة للأشخاص المشتبه في أنهم أعضاء في حماس أو الجهاد الإسلامي.[4]

يستطيع الذكاء الاصطناعي معالجة المعلومات بشكل أسرع بكثير من البشر.[5][6] صرح الجنرال المتقاعد أفيف كوخافي، رئيس الجيش الإسرائيلي حتى عام 2023، أن النظام يمكن أن ينتج 100 هدف قصف في غزة يوميًا، مع توصيات في الوقت الفعلي بالأهداف التي يجب مهاجمتها، حيث قد ينتج المحللون البشريون 50 هدفًا سنويًا.[7] قدّر أحد المحاضرين الذين قابلتهم الإذاعة الوطنية العامة هذه الأرقام بـ 50-100 هدف في 300 يوم لـ 20 ضابط مخابرات، و200 هدف في غضون 10-12 يومًا للإنجيل.[8]

الخلفية التكنولوجية

الذكاء الاصطناعي، رغم اسمه، غير قادر على التفكير أو الوعي.[9] وبدلاً من ذلك، فهي آلات طورت لأتمام المهام التي ينجزها البشر بذكاء من خلال وسائل أخرى. يستخدم حبسورة التعلم الآلي،[10] حيث يكلف الذكاء الاصطناعي بتحديد القواسم المشتركة في كميات هائلة من البيانات (مثل عمليات مسح الأنسجة السرطانية، وصور تعابير الوجه، ومراقبة أعضاء حماس الذين حددهم المحللون البشريون)، ثم البحث عن تلك القواسم المشتركة. في مواد جديدة.[11]

ما هي المعلومات التي يستخدمها حبسورة غير معروفة،[ا] ولكن يُعتقد أنه يجمع بيانات المراقبة من مصادر متنوعة بكميات هائلة.[14]

تعتمد التوصيات على مطابقة الأنماط. الشخص الذي لديه أوجه تشابه كافية مع أشخاص آخرين يُصنفون على أنهم مقاتلون أعداء قد يُصنف هو نفسه على أنه مقاتل.[10]

فيما يتعلق بملاءمة الذكاء الاصطناعي لهذه المهمة، نقلت الإذاعة الوطنية العامة عن هايدي خلاف، المدير الهندسي لـ ضمان الذكاء الاصطناعي في شركة أمن التكنولوجيا درب البتات (Trail of Bits)، قولها: "إن خوارزميات الذكاء الاصطناعي معيبة بشكل كبير مع معدلات خطأ عالية يتم ملاحظتها عبر التطبيقات التي تتطلب الدقة والدقة والدقة".[8] كتبت بيانكا باجياريني، المحاضرة في مركز الدراسات الإستراتيجية والدفاعية بالجامعة الوطنية الأسترالية، أن الذكاء الاصطناعي "أكثر فعالية في البيئات التي يمكن التنبؤ بها حيث تكون المفاهيم موضوعية ومستقرة بشكل معقول ومتسقة داخليًا". وقارنت ذلك بإخبار الفرق بين المقاتل وغير المقاتل، وهو الأمر الذي لا يستطيع حتى البشر فعله في كثير من الأحيان.[15]

ومضى خلف ليشير إلى أن قرارات مثل هذا النظام تعتمد كليًا على البيانات التي دربت عليها،[ب] ولا تعتمد على الاستدلال أو الأدلة الواقعية أو السببية، بل على الاحتمالية الإحصائية فقط.[16]

عملية

لم يعد لدى سلاح الجو الإسرائيلي أهداف لضربها[17] في حرب 2014 والاشتباكات الإسرائيلية الفلسطينية 2021.[18] وفي مقابلة مع فرانس 24، ذكر الصحفي الاستقصائي يوفال أبراهام من مجلة +972 اليسارية أنه من أجل الحفاظ على الضغط العسكري، وبسبب الضغط السياسي لمواصلة الحرب، سيقصف الجيش نفس الأماكن مرتين. ومنذ ذلك الحين، أدى تكامل أدوات الذكاء الاصطناعي إلى تسريع عملية اختيار الأهداف بشكل كبير.[19] وفي أوائل نوفمبر/تشرين الثاني، ذكر الجيش الإسرائيلي أن أكثر من 12.000 هدف في غزة قد حددوا من قبل قسم إدارة الأهداف[20] الذي يستخدم حبسورة.[2] وكتبت الإذاعة الوطنية العامة في 14 ديسمبر/كانون الأول أنه من غير الواضح عدد الأهداف المذكورة في حبسورة التي تم التعامل معها، لكن الجيش الإسرائيلي قال إنه يضرب حاليًا ما يصل إلى 250 هدفًا يوميًا.[8] كما اشتد القصف إلى ما وصفه مقال 14 ديسمبر/كانون الأول بوتيرة مذهلة:[21] ذكر الجيش الإسرائيلي في ذلك الوقت أنه ضرب أكثر من 22 ألف هدف داخل غزة،[21] بمعدل يومي يزيد عن ضعف المعدل اليومي. صراع 2021،[22] أكثر من 3500 منها منذ انهيار هدنة غزة 2023 في الأول من ديسمبر/كانون الأول الماضي.[21] في وقت مبكر من الهجوم، صرح قائد القوات الجوية أن قواته ضربت أهدافًا عسكرية فقط، لكنه أضاف: "لا يتم إجراء عملية جراحية."[23]

بمجرد قبول التوصية، يقوم ذكاء اصطناعي آخر، وهو Fire Factory، بتقليل تجميع الهجوم من ساعات إلى دقائق[24] عن طريق حساب أحمال الذخيرة، وتحديد الأولويات وتعيين الأهداف للطائرات والطائرات بدون طيار، واقتراح جدول زمني،[25] وفقًا لخطة مسبقة. مقالة بلومبرج التي وصفت أدوات الذكاء الاصطناعي هذه بأنها مصممة لمواجهة عسكرية وحرب بالوكالة مع إيران.[24]

أحد التغييرات التي لاحظتها صحيفة الغارديان هو أنه منذ اختفاء كبار قادة حماس في الأنفاق في بداية الهجوم، سمحت أنظمة مثل حبسورة للجيش الإسرائيلي بتحديد موقع ومهاجمة مجموعة أكبر بكثير من نشطاء حماس الأصغر سنا. ونقلت عن مسؤول عمل على قرارات الاستهداف في عمليات سابقة في غزة قوله إنه بينما لم تكن منازل أعضاء حماس الصغار مستهدفة بالقصف من قبل، إلا أن المسؤول يعتقد أن منازل نشطاء حماس المشتبه بهم أصبحت الآن مستهدفة بغض النظر عن رتبهم.[17] في مقابلة مع قناة فرانس 24، وصف أبراهام، من مجلة +972، هذا الأمر بأنه يتيح إسقاط قنبلة تزن 2000 رطل على منزل بشكل منهجي لقتل شخص واحد وكل من حوله، وهو أمر تم القيام به سابقًا لمجموعة صغيرة جدًا من كبار قادة حماس.[26] القادة واستشهدت الإذاعة الوطنية العامة بتقرير صادر عن مجلة +972 والمطبوعة الشقيقة Local Call يؤكدان أن النظام يُستخدم لتصنيع أهداف حتى تتمكن القوات العسكرية الإسرائيلية من الاستمرار في قصف غزة بمعدل هائل، مما يعاقب عموم السكان الفلسطينيين. لاحظت الإذاعة الوطنية العامة أنها لم تتحقق من ذلك. ولم يكن من الواضح عدد الأهداف التي إنشأت بواسطة الذكاء الاصطناعي وحده؛ ولكن كانت هناك زيادة كبيرة في الاستهداف، مع وقوع خسائر فادحة في صفوف المدنيين.[22]

من حيث المبدأ، فإن الجمع بين سرعة الكمبيوتر في تحديد الفرص وحكم الإنسان في تقييمها يمكن أن يؤدي إلى هجمات أكثر دقة وتقليل الخسائر في صفوف المدنيين.[27] وقد أكد الجيش الإسرائيلي ووسائل الإعلام على تقليل الضرر الذي يلحق بغير المقاتلين. أشار ريتشارد مويز، الباحث ورئيس المنظمة غير الحكومية المادة 36،[28] إلى "التسوية واسعة النطاق لمنطقة حضرية بأسلحة متفجرة ثقيلة" للتشكيك في هذه الادعاءات، بينما وصفت لوسي سوشمان، الأستاذة الفخرية في جامعة لانكستر،[8] التفجير بأنه " تهدف إلى إحداث أقصى قدر من الدمار في قطاع غزة".[16][28]

كتبت صحيفة الغارديان أنه عندما سمح بضربة على منازل خاصة لأولئك الذين حددوا على أنهم نشطاء في حماس أو الجهاد الإسلامي، عرف الباحثون المستهدفون مسبقًا العدد المتوقع للمدنيين الذين قتلوا، وكان لكل هدف ملف يحتوي على درجة الأضرار الجانبية التي تنص على عدد المدنيين المحتملين. للقتل في إحدى الغارات،[29] ووفقاً لمصدر عسكري إسرائيلي رفيع المستوى، يستخدم النشطاء قياساً "دقيقاً للغاية" لمعدل إخلاء المدنيين للمبنى قبل وقت قصير من الغارة. "نحن نستخدم خوارزمية لتقييم عدد المدنيين المتبقين. إنه يعطينا اللون الأخضر والأصفر والأحمر، مثل إشارة المرور.[28]

استخدام 2021

وقارن كوخافي تقسيم الأهداف باستخدام حبسورة بالآلة، وذكر أنه بمجرد تفعيل الآلة في حرب مايو 2021، أنتجت 100 هدف يوميًا، هجم نصفها، مقابل 50 هدفًا في غزة سنويًا قبل ذلك.[30] ما يقرب من 200 هدف جاء من حبسورة من بين 1500 هدف ضربتها إسرائيل في غزة أثناء الحرب،[22] بما في ذلك الأهداف الثابتة والمتحركة وفقًا للجيش.[31]

حدد تقرير ما بعد الإجراء الصادر عن المعهد اليهودي للأمن القومي الأمريكي مشكلة، حيث ذكر أن النظام كان لديه بيانات حول ما كان هدفًا، لكنه كان يفتقر إلى بيانات حول ما لم يكن كذلك. يعتمد النظام كليًا على بيانات التدريب،[16] وقد تم تجاهل المعلومات التي فحصها المحللون البشريون واعتبروها لا تشكل هدفًا، مما يعرضهم لخطر التحيز. وأعرب نائب الرئيس عن أمله في تصحيح هذا الأمر منذ ذلك الحين.[31]

منظمة

استخدم حبسورة من قبل قسم إدارة الأهداف العسكري (أو مديرية الأهداف[3] أو مديرية الاستهداف[32])، والتي شكلت في عام 2019 في مديرية المخابرات في الجيش الإسرائيلي[33] لمعالجة نفاد الأهداف في القوات الجوية لقصفها[17] والتي وصفها كوخافي بأنها "مدعومة بقدرات الذكاء الاصطناعي" وتضم مئات الضباط من الجنود.[30] بالإضافة إلى دورها في زمن الحرب، كتبت صحيفة الغارديان أنها ساعدت الجيش الإسرائيلي في بناء قاعدة بيانات تضم ما بين 30.000 إلى 40.000 من المسلحين المشتبه بهم في السنوات الأخيرة، وأن أنظمة مثل حبسورة لعبت دورًا حاسمًا في بناء قوائم الأفراد المصرح لهم بالانضمام إليهم.[33]

لقد طور حبسورة من قبل الوحدة 8200 في المخابرات الإسرائيلية.[34]

تداعيات أخلاقية

حدد خبراء في منظمة العفو الدولية والقانون الإنساني الدولي عدة مواضيع مثيرة للقلق.[35]

حدود المراجعة البشرية

ونقلت صحيفة الغارديان عن مويز قوله إن القائد الذي سلم قائمة بالأهداف التي إنشأت بواسطة الكمبيوتر قد لا يعرف كيف ينشأ القائمة أو قد يكون قادرًا على التشكيك في توصيات الاستهداف، وهو في خطر فقدان القدرة على التفكير بشكل هادف في خطر إلحاق الأذى بالمدنيين.[35]

وفي مقال رأي بصحيفة لوموند قال المراسل إيز فنسنت الاب أن الأسلحة الآلية تنقسم إلى أنظمة مؤتمتة بالكامل، وهي ليست موجودة بالفعل في السوق، وأسلحة فتاكة ذاتية التشغيل، والتي تسمح من حيث المبدأ بالتحكم البشري، وأن هذا التقسيم يسمح لإسرائيل بالادعاء بأن حبسورة يقع على الأرض. جانب من الاستخدام الأنسب للقوة. ونقلت عن لور دي روسي روشيجوند، الباحثة في المعهد الفرنسي للعلاقات الدولية، قولها إن الحرب يمكن أن تبطل هذه الفئات غير الواضحة وتنشط تعريفًا تنظيميًا أكثر صرامة، وسيطرة بشرية كبيرة، وهو ما يحاول نشطاء حقوق الإنسان، بما في ذلك المادة 36، الدعوة إليه. ونقلت عن دي روسي-روشجوند قولها إنه من غير المعروف ما هو نوع الخوارزمية التي يستخدمها الجيش الإسرائيلي، أو كيف جمعت البيانات، والتي لن تكون مشكلة إذا لم تؤدي إلى قرار حياة أو موت.[35]

اجتهاد

أشارت الدكتورة مارتا بو، الباحثة في معهد ستوكهولم الدولي لأبحاث السلام، إلى أن البشر الذين يعيشون في حلقة العمل يخاطرون بـ "التحيز الآلي": الاعتماد المفرط على الأنظمة، مما يمنح تلك الأنظمة تأثيرًا كبيرًا على القرارات التي يجب اتخاذها بواسطة البشر.[36]

لاحظ سوتشمان أن الحجم الضخم للأهداف من المرجح أن يضغط على المراجعين البشريين، قائلًا إنه "في مواجهة هذا النوع من التسارع، تصبح تلك المراجعات مقيدة أكثر فأكثر من حيث نوع الحكم الذي يمكن للناس أن يمارسوه فعليًا". وأضاف تال ميمران، المحاضر في الجامعة العبرية في القدس والذي عمل سابقًا مع الحكومة في مجال الاستهداف، أن الضغط سيجعل المحللين أكثر عرضة لقبول توصيات الاستهداف التي يقدمها الذكاء الاصطناعي، سواء كانت صحيحة، وقد يميلون إلى جعل الحياة أسهل لأنفسهم من خلال الموافقة على توصيات الآلة، والتي يمكن أن تخلق "مستوى جديدًا تمامًا من المشاكل" إذا كانت الآلة تخطئ في تحديد الأهداف بشكل منهجي.[36]

مسئولية

وأشار خلاف إلى صعوبة متابعة المساءلة عندما يتعلق الأمر بأنظمة الذكاء الاصطناعي. يتحمل البشر المسؤولية، لكن من المسؤول إذا فشل نظام الاستهداف، ومن المستحيل إرجاع الفشل إلى خطأ واحد ارتكبه شخص واحد؟ وتابع مقال الإذاعة الوطنية العامة: "هل المحلل هو الذي قبل توصية الذكاء الاصطناعي؟ المبرمجون الذين صنعوا النظام؟ ضباط المخابرات هم الذين جمعوا بيانات التدريب؟".[36]

لافندر

عرّفت صحيفة الغارديان لافندر بأنها قاعدة بيانات مدعومة بالذكاء الاصطناعي، وفقًا لشهادات ستة ضباط استخبارات قدمت إلى مجلة +972/مكالمة محلية وتمت مشاركتها مع صحيفة الغارديان. وقال الستة إن لافندر لعب دورًا مركزيًا في الحرب، حيث قام بمعالجة البيانات بسرعة لتحديد النشطاء الصغار المحتملين لاستهدافهم، وفي وقت ما أدرج ما يصل إلى 37 ألف رجل فلسطيني مرتبطين بواسطة منظمة العفو الدولية بحماس أو الجهاد الإسلامي في فلسطين.[37] تفاصيل عملية لافندر أو كيفية التوصل إلى استنتاجاتها لم يتم تضمينها في الحسابات التي نشرتها مجلة +972، ولكن بعد أن تبين أن عينة من القائمة تتمتع بمعدل دقة 90٪، وافق الجيش الإسرائيلي على استخدام لافندر الكاسح للتوصية. الأهداف. وبحسب الضباط، فقد تم استخدامه إلى جانب حبسورة، الذي استهدف المباني والهياكل بدلاً من الأفراد.[38]

نقلاً عن مصادر متعددة، كتبت صحيفة الغارديان أنه في الحروب السابقة، كان تحديد شخص ما كهدف مشروع يتم مناقشته ثم التوقيع عليه من قبل مستشار قانوني، وأنه بعد 7 أكتوبر، تسارعت العملية بشكل كبير، وكان هناك ضغط لمزيد من الأهداف، و ولتلبية هذا الطلب، اعتمد الجيش الإسرائيلي بشكل كبير على لافندر في قاعدة بيانات للأفراد الذين يُعتقد أن لديهم خصائص مقاتلي الجهاد الإسلامي في فلسطين أو حماس.[39] ونقلت صحيفة الغارديان عن أحد المصادر قوله: «سأستثمر 20 ثانية لكل هدف في هذه المرحلة، وأقوم بالعشرات منها كل يوم. لم يكن لدي أي قيمة مضافة كإنسان، باستثناء كوني ختم الموافقة. لقد وفر الكثير من الوقت.”[40] قال مصدر برر استخدام اللافندر للمساعدة في تحديد الأهداف ذات الرتبة المنخفضة، إنه في زمن الحرب لا يوجد وقت لإجراء عملية تحديد الهوية بعناية مع كل هدف، وبدلاً من استثمار القوى البشرية والعسكرية. "أنت على استعداد لتحمل هامش الخطأ في استخدام الذكاء الاصطناعي".[41]

أصدر الجيش الإسرائيلي بيانًا مفاده أن بعض الادعاءات التي صورت لا أساس لها من الصحة بينما يعكس البعض الآخر فهمًا خاطئًا لتوجيهات الجيش الإسرائيلي والقانون الدولي، وأن الجيش الإسرائيلي لا يستخدم نظام الذكاء الاصطناعي الذي يحدد هوية النشطاء الإرهابيين أو يحاول التنبؤ بما إذا كان الشخص إرهابيًا.. أنظمة المعلومات هي مجرد أحد أنواع الأدوات التي تساعد المحللين على جمع المعلومات الاستخبارية من مصادر مختلفة وتحليلها على النحو الأمثل لعملية تحديد الأهداف العسكرية، ووفقًا لتوجيهات الجيش الإسرائيلي، يجب على المحللين إجراء فحوصات مستقلة للتحقق من أن الأهداف تستوفي التعريفات ذات الصلة وفقًا مع القانون الدولي والقيود الإضافية لتوجيهات الجيش الإسرائيلي.[42]

ومضى البيان ليقول إن "النظام" المعني ليس نظامًا، ولا قائمة بالعملاء العسكريين المؤكدين المؤهلين للهجوم، بل هو مجرد قاعدة بيانات للرجوع إلى مصادر المخابرات من أجل إنتاج ما يصل إلى - طبقات من المعلومات التاريخية عن العناصر العسكرية للمنظمات الإرهابية.[42]

ادعاءات بقصف المنازل

استشهدت صحيفة الغارديان بشهادات ضباط المخابرات التي نشرتها +972 و Local Call قائلين إن الرجال الفلسطينيين المرتبطين بالجناح العسكري لحماس يعتبرون أهدافًا محتملة بغض النظر عن رتبتهم أو أهميتهم،[43] وسيستهدف أعضاء حماس وحزب التحرير الشعبي ذوي الرتب المنخفضة بشكل تفضيلي. في المنزل، حيث قال أحدهم إن النظام صمم للبحث عنهم في هذه المواقف عندما يكون الهجوم أسهل بكثير.[44] وقال اثنان من المصادر إن الهجمات على المسلحين ذوي الرتب المنخفضة كانت تُنفذ عادةً بالقنابل الصامتة، مما أدى إلى تدمير منازل بأكملها وقتل الجميع هناك، وقال أحدهم إنك لا تريد إهدار القنابل الباهظة الثمن والتي ينقصها المعروض على أشخاص غير مهمين.[45] نقلاً عن خبراء صراع لم تذكر أسماءهم، كتبت صحيفة الغارديان أنه إذا كانت إسرائيل تستخدم قنابل غبية لتسوية منازل آلاف الفلسطينيين الذين ارتبطوا بمساعدة الذكاء الاصطناعي للجماعات المسلحة في غزة، فقد يساعد ذلك في تفسير ما وصفته الصحيفة بعدد القتلى المرتفع بشكل صادم.[46]

جاء في رد الجيش الإسرائيلي على نشر الشهادات أنه، على عكس حماس، ملتزم بالقانون الدولي ولا يضرب إلا الأهداف العسكرية والناشطين العسكريين، ويفعل ذلك وفقًا للتناسب والاحتياطات، ويفحص ويحقق بشكل شامل في الاستثناءات. يعتبر العضو في جماعة مسلحة منظمة أو مشاركًا مباشرًا في الأعمال العدائية هدفًا مشروعًا بموجب القانون الإنساني الدولي وسياسة جميع البلدان الملتزمة بالقانون؛[47] وأنها "تبذل جهودًا مختلفة لتقليل الضرر اللاحق بالمدنيين إلى الحد الممكن في الظروف التشغيلية السائدة وقت الضربة"؛ وأن تختار الذخيرة المناسبة وفقاً للاعتبارات العملياتية والإنسانية؛ وأن الذخائر الجوية التي لا تحتوي على مجموعة أدوات توجيه دقيقة متكاملة هي أسلحة عسكرية قياسية مطورة؛ وأن الأنظمة الموجودة على متن الطائرات والتي يستخدمها الطيارون المدربون تضمن الدقة العالية لهذه الأسلحة؛ وأن الغالبية العظمى من الذخائر التي تستخدمها هي ذخائر دقيقة التوجيه.[48]

مزاعم حدود القتل المدنية المصرح بها مسبقًا

ووفقاً للشهادات، فرض الجيش الإسرائيلي حدوداً مرخصاً بها مسبقاً على عدد المدنيين الذين سمح بقتلهم من أجل قتل أحد نشطاء حماس. واستشهدت صحيفة الغارديان بـ +972 و Local Call حول كيف أن هذا الرقم يزيد عن 100 بالنسبة لكبار مسؤولي حماس، حيث قال أحد المصادر إن هناك حسابًا لعدد المدنيين الذين يمكن أن يقتلوا لقائد لواء، وكم عدد المدنيين الذين يمكن أن يقتلوا لقائد كتيبة.، وما إلى ذلك وهلم جرا. وقال أحد الضباط إنه بالنسبة للمقاتلين الصغار، كان هذا العدد 15 في الأسبوع الأول من الحرب، وفي وقت ما كان منخفضًا إلى خمسة. وقال آخر إن العدد يصل إلى 20 مدنياً غير متورطين لكل عنصر، بغض النظر عن الرتبة أو الأهمية العسكرية أو العمر.[49] وكتبت صحيفة الغارديان أن الخبراء في القانون الإنساني الدولي الذين تحدثوا إلى الصحيفة أعربوا عن قلقهم.[50]

وجاء في رد الجيش الإسرائيلي أن إجراءات الجيش الإسرائيلي تتطلب تقييم الميزة العسكرية المتوقعة والأضرار الجانبية لكل هدف، وأن هذه التقييمات تتم بشكل فردي، وليس بشكل قاطع، وأن القوات الإسرائيلية لا تنفذ ضربات عندما تكون الأضرار الجانبية مفرطة مقارنة بالميزة العسكرية،[51] وأن الجيش الإسرائيلي يرفض رفضاً قاطعاً الادعاء المتعلق بأي سياسة لقتل عشرات الآلاف من الأشخاص في منازلهم.[52]

تفاعلات

قال الأمين العام للأمم المتحدة، أنطونيو غوتيريش، إنه "منزعج للغاية" من التقارير التي تفيد بأن إسرائيل استخدمت الذكاء الاصطناعي في حملتها العسكرية في غزة، قائلا إن هذه الممارسة تعرض المدنيين للخطر وتطمس المساءلة.[53] وفي معرض حديثه عن نظام لافندر، قال مارك أوين جونز، الأستاذ في جامعة حمد بن خليفة: "دعونا نكون واضحين: هذه إبادة جماعية بمساعدة الذكاء الاصطناعي، ومن الآن فصاعدا، يجب أن تكون هناك دعوة إلى وقف استخدام الذكاء الاصطناعي". في الحرب".[54] صرح بن شاول، المقرر الخاص للأمم المتحدة، أنه إذا كانت التقارير حول استخدام إسرائيل للذكاء الاصطناعي صحيحة، فإن "العديد من الضربات الإسرائيلية في غزة ستشكل جرائم حرب تتمثل في شن هجمات غير متناسبة".[55] صرح راميش سرينيفاسان، الأستاذ في جامعة كاليفورنيا، أن "شركات أمريكا الكبرى للتكنولوجيا تتماشى في الواقع مع العديد من تصرفات الجيش الإسرائيلي. وحقيقة أن أنظمة الذكاء الاصطناعي تُستخدم تشير إلى عدم احترام الدولة الإسرائيلية. الجميع يعرف أنظمة الذكاء الاصطناعي هذه". سوف يخطئ."[56]

المراجع

  1. ^ Lee، Gavin (12 ديسمبر 2023). "Understanding how Israel uses 'Gospel' AI system in Gaza bombings". France24. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01.
  2. ^ ا ب ج د Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. The Gospel is actually one of several AI programs being used by Israeli intelligence, according to Tal Mimran, a lecturer at Hebrew University in Jerusalem who has worked for the Israeli government on targeting during previous military operations. Other AI systems aggregate vast quantities of intelligence data and classify it. The final system is the Gospel, which makes a targeting recommendation to a human analyst. Those targets could be anything from individual fighters, to equipment like rocket launchers, or facilities such as Hamas command posts.
  3. ^ ا ب ج Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. A brief blog post by the Israeli military on November 2 lays out how the Gospel is being used in the current conflict. According to the post, the military's Directorate of Targets is using the Gospel to rapidly produce targets based on the latest intelligence. The system provides a targeting recommendation for a human analyst who then decides whether to pass it along to soldiers in the field.

    "This isn't just an automatic system," Misztal emphasizes. "If it thinks it finds something that could be a potential target, that's flagged then for an intelligence analyst to review."

    The post states that the targeting division is able to send these targets to the IAF and navy, and directly to ground forces via an app known as "Pillar of Fire," which commanders carry on military-issued smartphones and other devices.
  4. ^ Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-01. Multiple sources familiar with the IDF's targeting processes confirmed the existence of the Gospel to +972/Local Call, saying it had been used to produce automated recommendations for attacking targets, such as the private homes of individuals suspected of being Hamas or Islamic Jihad operatives.
  5. ^ Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. Algorithms can sift through mounds of intelligence data far faster than human analysts, says Robert Ashley, a former head of the U.S. Defense Intelligence Agency. Using AI to assist with targeting has the potential to give commanders an enormous edge.

    "You're going to make decisions faster than your opponent, that's really what it's about," he says.
  6. ^ Baggiarini، Bianca (8 ديسمبر 2023). "Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?". The Conversation. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. Militaries and soldiers frame their decision-making through what is called the "OODA loop" (for observe, orient, decide, act). A faster OODA loop can help you outmanoeuvre your enemy. The goal is to avoid slowing down decisions through excessive deliberation, and instead to match the accelerating tempo of war. So the use of AI is potentially justified on the basis it can interpret and synthesise huge amounts of data, processing it and delivering outputs at rates that far surpass human cognition.
  7. ^ Baggiarini، Bianca (8 ديسمبر 2023). "Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?". The Conversation. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01.
  8. ^ ا ب ج د Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01.
  9. ^ Mueller، John Paul؛ Massaron، Luca (2016). Machine Learning For Dummies®. Hoboken, New Jersey: John Wiley & Sons. ISBN:978-1-119-24551-3. ص. 13: Machine learning relies on algorithms to analyze huge datasets. Currently, machine learning can't provide the sort of AI that the movies present. Even the best algorithms can't think, feel, present any form of self-awareness, or exercise free will.
  10. ^ ا ب Baggiarini، Bianca (8 ديسمبر 2023). "Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?". The Conversation. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. How does the system produce these targets? It does so through probabilistic reasoning offered by machine learning algorithms.

    Machine learning algorithms learn through data. They learn by seeking patterns in huge piles of data, and their success is contingent on the data's quality and quantity. They make recommendations based on probabilities.

    The probabilities are based on pattern-matching. If a person has enough similarities to other people labelled as an enemy combatant, they too may be labelled a combatant themselves.
  11. ^ Mueller، John Paul؛ Massaron، Luca (2016). Machine Learning For Dummies®. Hoboken, New Jersey: John Wiley & Sons. ISBN:978-1-119-24551-3. ص. 33: The secret to machine learning is generalization. The goal is to generalize the output function so that it works on data beyond the training set. For example, consider a spam filter. Your dictionary contains 100,000 words (actually a small dictionary). A limited training dataset of 4,000 or 5,000 word combinations must create a generalized function that can then find spam in the 2^100,000 combinations that the function will see when working with actual data.
  12. ^ Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-01. Precisely what forms of data are ingested into the Gospel is not known. But experts said AI-based decision support systems for targeting would typically analyse large sets of information from a range of sources, such as drone footage, intercepted communications, surveillance data and information drawn from monitoring the movements and behaviour patterns of individuals and large groups.
  13. ^ Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. Although it's not known exactly what data the Gospel uses to make its suggestions, it likely comes from a wide variety of different sources. The list includes things like cell phone messages, satellite imagery, drone footage and even seismic sensors, according to Blaise Misztal, vice president for policy at the Jewish Institute for National Security of America, a group that facilitates military cooperation between Israel and the United States.
  14. ^ Inskeep، Steve. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. The system is called the Gospel. And basically, it takes an enormous quantity of surveillance data, crunches it all together and makes recommendations about where the military should strike.
  15. ^ Baggiarini، Bianca (8 ديسمبر 2023). "Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?". The Conversation. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. Some claim machine learning enables greater precision in targeting, which makes it easier to avoid harming innocent people and using a proportional amount of force. However, the idea of more precise targeting of airstrikes has not been successful in the past, as the high toll of declared and undeclared civilian casualties from the global war on terror shows.

    Moreover, the difference between a combatant and a civilian is rarely self-evident. Even humans frequently cannot tell who is and is not a combatant.

    Technology does not change this fundamental truth. Often social categories and concepts are not objective, but are contested or specific to time and place. But computer vision together with algorithms are more effective in predictable environments where concepts are objective, reasonably stable, and internally consistent.
  16. ^ ا ب ج Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. The Israeli military did not respond directly to NPR's inquiries about the Gospel. In the November 2 post, it said the system allows the military to "produce targets for precise attacks on infrastructures associated with Hamas, while causing great damage to the enemy and minimal harm to those not involved," according to an unnamed spokesperson.

    But critics question whether the Gospel and other associated AI systems are in fact performing as the military claims. Khlaaf notes that artificial intelligence depends entirely on training data to make its decisions.

    "The nature of AI systems is to provide outcomes based on statistical and probabilistic inferences and correlations from historical data, and not any type of reasoning, factual evidence, or 'causation,'" she says.
  17. ^ ا ب ج Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-01. The target division was created to address a chronic problem for the IDF: in earlier operations in Gaza, the air force repeatedly ran out of targets to strike. Since senior Hamas officials disappeared into tunnels at the start of any new offensive, sources said, systems such as the Gospel allowed the IDF to locate and attack a much larger pool of more junior operatives.

    One official, who worked on targeting decisions in previous Gaza operations, said the IDF had not previously targeted the homes of junior Hamas members for bombings. They said they believed that had changed for the present conflict, with the houses of suspected Hamas operatives now targeted regardless of rank.
  18. ^ Lee، Gavin (12 ديسمبر 2023). "Understanding how Israel uses 'Gospel' AI system in Gaza bombings". France24. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. Yuval Abraham: "Now, sources that I've spoken to that have operated the Gospel and have served in that center [...] they said the use of artificial intelligence is being incr- increasing trend in the military because in the past, the military ran out of targets in 2014 and 2021.
  19. ^ Lee، Gavin (12 ديسمبر 2023). "Understanding how Israel uses 'Gospel' AI system in Gaza bombings". France24. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. Yuval Abraham: I mean one source recalled how, for example, in 2021 and 2014, y'know, they ran out of targets. They had nothing left to bomb. There was nothing but quality to bomb. But there was political pressure to continue the war. There was a need to continue the pressure in Gaza. So one source recalled how in 2014, they would bomb the same places twice. When you have artificial intelligence, when you have automation, when you can create so many targets, often spending, y'know, less than a minute on a target that, at the end of the day, is killing families, y'know? So, so, so that allows you to continue wars, often even for political purposes, it could be, for much longer than you could in the past.
  20. ^ Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-01.
  21. ^ ا ب ج Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. The pace is astonishing: In the wake of the brutal attacks by Hamas-led militants on October 7, Israeli forces have struck more than 22,000 targets inside Gaza, a small strip of land along the Mediterranean coast. Just since the temporary truce broke down on December 1, Israel's Air Force has hit more than 3,500 sites.
  22. ^ ا ب ج Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. A report by the Israeli publication +972 Magazine and the Hebrew-language outlet Local Call asserts that the system is being used to manufacture targets so that Israeli military forces can continue to bombard Gaza at an enormous rate, punishing the general Palestinian population.

    NPR has not independently verified those claims, and it's unclear how many targets are currently being generated by AI alone. But there has been a substantial increase in targeting, according to the Israeli military's own numbers. In the 2021 conflict, Israel said it struck 1,500 targets in Gaza, approximately 200 of which came from the Gospel. Since October 7, the military says it has struck more than 22,000 targets inside Gaza — a daily rate more than double that of the 2021 conflict.

    The toll on Palestinian civilians has been enormous.
  23. ^ Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-01. Israel's military has made no secret of the intensity of its bombardment of the Gaza Strip. In the early days of the offensive, the head of its air force spoke of relentless, "around the clock" airstrikes. His forces, he said, were only striking military targets, but he added: "We are not being surgical."
  24. ^ ا ب Newman، Marissa (16 يوليو 2023). "Israel Quietly Embeds AI Systems in Deadly Military Operations". Bloomberg. مؤرشف من الأصل في 2024-05-15. اطلع عليه بتاريخ 2024-04-04. In recent months, Israel has been issuing near-daily warnings to Iran over its uranium enrichment, vowing it will not allow the country to obtain nuclear weapons under any circumstances. Should the two enter into a military confrontation, the IDF anticipates that Iranian proxies in Gaza, Syria and Lebanon would retaliate, setting the stage for the first serious multi-front conflict for Israel since a surprise attack by Egypt and Syria 50 years ago sparked the Yom Kippur War.

    AI-based tools like Fire Factory are tailored for such a scenario, according to IDF officials. "What used to take hours now takes minutes, with a few more minutes for human review," said Col. Uri, who heads the army's digital transformation unit [...] "With the same amount of people, we do much more."
  25. ^ Newman، Marissa (16 يوليو 2023). "Israel Quietly Embeds AI Systems in Deadly Military Operations". Bloomberg. مؤرشف من الأصل في 2024-05-15. اطلع عليه بتاريخ 2024-04-04. Though the military won't comment on specific operations, officials say that it now uses an AI recommendation system that can crunch huge amounts of data to select targets for air strikes. Ensuing raids can then be rapidly assembled with another artificial intelligence model called Fire Factory, which uses data about military-approved targets to calculate munition loads, prioritize and assign thousands of targets to aircraft and drones, and propose a schedule.
  26. ^ Lee، Gavin (12 ديسمبر 2023). "Understanding how Israel uses 'Gospel' AI system in Gaza bombings". France24. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. Yuval Abraham: "What we're talking about is, a policy of dropping a bomb that weighs two thousand pounds, on a home, in order to assassinate one person, okay? Now, in the past, imagine before artificial intelligence and automation, you would do that, say, for a group of very small senior leaders of Hamas, killing them and knowingly killing everybody around them [...] when you automates that process, when you have a need to strike hundreds and thousands of targets, you can do so in a systematic way..."
  27. ^ Baggiarini، Bianca (8 ديسمبر 2023). "Israel's AI can produce 100 bombing targets a day in Gaza. Is this the future of war?". The Conversation. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. In principle, machine learning systems may enable more precisely targeted attacks and fewer civilian casualties.
  28. ^ ا ب ج Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-01. In the IDF's brief statement about its target division, a senior official said the unit "produces precise attacks on infrastructure associated with Hamas while inflicting great damage to the enemy and minimal harm to non-combatants".

    The precision of strikes recommended by the "AI target bank" has been emphasised in multiple reports in Israeli media. The يديعوت أحرونوت daily newspaper reported that the unit "makes sure as far as possible there will be no harm to non-involved civilians".

    A former senior Israeli military source told the Guardian that operatives use a "very accurate" measurement of the rate of civilians evacuating a building shortly before a strike. "We use an algorithm to evaluate how many civilians are remaining. It gives us a green, yellow, red, like a traffic signal."

    [...] "Look at the physical landscape of Gaza," said Richard Moyes, a researcher who heads Article 36, a group that campaigns to reduce harm from weapons. "We're seeing the widespread flattening of an urban area with heavy explosive weapons, so to claim there's precision and narrowness of force being exerted is not borne out by the facts."
  29. ^ Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-01. Multiple sources told the Guardian and +972/Local Call that when a strike was authorised on the private homes of individuals identified as Hamas or Islamic Jihad operatives, target researchers knew in advance the number of civilians expected to be killed.

    Each target, they said, had a file containing a collateral damage score that stipulated how many civilians were likely to be killed in a strike.
  30. ^ ا ب Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-01. Aviv Kochavi, who served as the head of the IDF until January, has said the target division is "powered by AI capabilities" and includes hundreds of officers and soldiers.

    In an interview published before the war, he said it was "a machine that produces vast amounts of data more effectively than any human, and translates it into targets for attack".

    According to Kochavi, "once this machine was activated" in Israel's 11-day war with Hamas in May 2021 it generated 100 targets a day. "To put that into perspective, in the past we would produce 50 targets in Gaza per year. Now, this machine produces 100 targets a single day, with 50% of them being attacked."
  31. ^ ا ب Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. Misztal's group documented one of the first trials of the Gospel, during a 2021 conflict in Gaza between Israel and the militant groups Hamas and Islamic Jihad. According to press reports and statements from the military itself, Israel used the Gospel and other AI programs to identify likely targets such as rocket launchers. The system was used to identify static targets as well as moving targets as they appeared on the battlefield. According to press reports, it identified around 200 targets in the conflict.

    But it was not without its problems. The after-action report by Misztal's group noted that, while the AI had plenty of training data for what constituted a target, it lacked data on things that human analysts had decided were not targets. The Israeli military hadn't collected the target data its analysts had discarded, and as a result the system's training had been biased.

    "It's been two years since then, so it's something that, hopefully, they've been able to rectify," Misztal says.
  32. ^ Leshem، Ron (30 يونيو 2023). "IDF possesses Matrix-like capabilities, ex-Israeli army chief says". Ynetnews. مؤرشف من الأصل في 2024-04-17. اطلع عليه بتاريخ 2024-03-26.)
  33. ^ ا ب Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-01. In early November, the IDF said "more than 12,000" targets in Gaza had been identified by its target administration division.

    The activities of the division, formed in 2019 in the IDF's intelligence directorate, are classified.

    However a short statement on the IDF website claimed it was using an AI-based system called Habsora (the Gospel, in English) in the war against Hamas to "produce targets at a fast pace".

    [...] In recent years, the target division has helped the IDF build a database of what sources said was between 30,000 and 40,000 suspected militants. Systems such as the Gospel, they said, had played a critical role in building lists of individuals authorised to be assassinated.
  34. ^ Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-01. According to posts on the Israeli military's website, the Gospel was developed by Israel's signals intelligence branch, known as Unit 8200. The system is relatively new — one of the earliest mentions was a top innovation award that it won in 2020.
  35. ^ ا ب ج Davies، Harry؛ McKernan، Bethan؛ Sabbagh، Dan (ديسمبر 2023). "'The Gospel': how Israel uses AI to select bombing targets in Gaza". The Guardian. مؤرشف من الأصل في 2023-12-02. اطلع عليه بتاريخ 2024-04-02. For some experts who research AI and international humanitarian law, an acceleration of this kind raises a number of concerns.

    Dr Marta Bo, a researcher at the Stockholm International Peace Research Institute, said that even when "humans are in the loop" there is a risk they develop "automation bias" and "over-rely on systems which come to have too much influence over complex human decisions".

    Moyes, of Article 36, said that when relying on tools such as the Gospel, a commander "is handed a list of targets a computer has generated" and they "don't necessarily know how the list has been created or have the ability to adequately interrogate and question the targeting recommendations".

    "There is a danger," he added, "that as humans come to rely on these systems they become cogs in a mechanised process and lose the ability to consider the risk of civilian harm in a meaningful way."
  36. ^ ا ب ج Brumfiel، Geoff. "Israel is using an AI system to find targets in Gaza. Experts say it's just the start". NPR. مؤرشف من الأصل في 2024-02-20. اطلع عليه بتاريخ 2024-04-02. The huge volume of targets is also likely putting pressure on the humans asked to review them, says Suchman. "In the face of this kind of acceleration, those reviews become more and more constrained in terms of what kind of judgment people can actually exercise," she says.

    Mimran adds that, under pressure, analysts will be more likely to accept the AI's targeting recommendations, regardless of whether they are correct. Targeting officers may be tempted to think that "life will be much easier if we flow with the machine and accept its advice and recommendations," he says. But it could create a "whole new level of problems" if the machine is systematically misidentifying targets.

    Finally, Khlaaf points out that the use of AI could make it more difficult to pursue accountability for those involved in the conflict. Although humans still retain the legal culpability for strikes, it's unclear who is responsible if the targeting system fails. Is it the analyst who accepted the AI recommendation? The programmers who made the system? The intelligence officers who gathered the training data?
  37. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. The Israeli military's bombing campaign in Gaza used a previously undisclosed AI-powered database that at one stage identified 37,000 potential targets based on their apparent links to Hamas, according to intelligence sources involved in the war.

    The testimony from the six intelligence officers, all who have been involved in using AI systems to identify Hamas and Palestinian Islamic Jihad (PIJ) targets in the war, was given to the journalist Yuval Abraham for a report published by the Israeli-Palestinian publication +972 Magazine and the Hebrew-language outlet Local Call.

    Their accounts were shared exclusively with the Guardian in advance of publication. All six said that Lavender had played a central role in the war, processing masses of data to rapidly identify potential "junior" operatives to target. Four of the sources said that, at one stage early in the war, Lavender listed as many as 37,000 Palestinian men who had been linked by the AI system to Hamas or PIL.
  38. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. Details about the specific kinds of data used to train Lavender's algorithm, or how the programme reached its conclusions, are not included in the accounts published by +972 or Local Call. However, the sources said that during the first few weeks of the war, Unit 8200 refined Lavender's algorithm and tweaked its search parameters.

    After randomly sampling and cross-checking its predictions, the unit concluded Lavender had achieved a 90% accuracy rate, the sources said, leading the IDF to approve its sweeping use as a target recommendation tool.

    Lavender created a database of tens of thousands of individuals who were marked as predominantly low-ranking members of Hamas's military wing, they added. This was used alongside another AI-based decision support system, called the Gospel, which recommended buildings and structures as targets rather than individuals.
  39. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. In earlier military operations conducted by the IDF, producing human targets was often a more labour-intensive process. Multiple sources who described target development in previous wars to the Guardian, said the decision to "incriminate" an individual, or identify them as a legitimate target, would be discussed and then signed off by a legal adviser.

    In the weeks and months after 7 October, this model for approving strikes on human targets was dramatically accelerated, according to the sources. As the IDF's bombardment of Gaza intensified, they said, commanders demanded a continuous pipeline of targets.

    "We were constantly being pressured: 'Bring us more targets.' They really shouted at us," said one intelligence officer. "We were told: now we have to fuck up Hamas, no matter what the cost. Whatever you can, you bomb."

    To meet this demand, the IDF came to rely heavily on Lavender to generate a database of individuals judged to have the characteristics of a PIJ or Hamas militant.
  40. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04.
  41. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. Another source, who justified the use of Lavender to help identify low-ranking targets, said that "when it comes to a junior militant, you don't want to invest manpower and time in it". They said that in wartime there was insufficient time to carefully "incriminate every target".

    "So you're willing to take the margin of error of using artificial intelligence, risking collateral damage and civilians dying, and risking attacking by mistake, and to live with it," they added.
  42. ^ ا ب "Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza". The Guardian. 3 أبريل 2024. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. Some of the claims portrayed in your questions are baseless in fact, while others reflect a flawed understanding of IDF directives and international law. Following the murderous attack by the Hamas terror organization on October 7, the IDF has been operating to dismantle Hamas' military capabilities.

    [...]The process of identifying military targets in the IDF consists of various types of tools and methods, including information management tools, which are used in order to help the intelligence analysts to gather and optimally analyze the intelligence, obtained from a variety of sources. Contrary to claims, the IDF does not use an artificial intelligence system that identifies terrorist operatives or tries to predict whether a person is a terrorist. Information systems are merely tools for analysts in the target identification process. According to IDF directives, analysts must conduct independent examinations, in which they verify that the identified targets meet the relevant definitions in accordance with international law and additional restrictions stipulated in the IDF directives.

    The "system" your questions refer to is not a system, but simply a database whose purpose is to cross-reference intelligence sources, in order to produce up-to-date layers of information on the military operatives of terrorist organizations. This is not a list of confirmed military operatives eligible to attack.
  43. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. In the weeks after the Hamas-led 7 October assault on southern Israel, in which Palestinian militants killed nearly 1,200 Israelis and kidnapped about 240 people, the sources said there was a decision to treat Palestinian men linked to Hamas's military wing as potential targets, regardless of their rank or importance.
  44. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. The testimonies published by +972 and Local Call may explain how such a western military with such advanced capabilities, with weapons that can conduct highly surgical strikes, has conducted a war with such a vast human toll.

    When it came to targeting low-ranking Hamas and PIJ suspects, they said, the preference was to attack when they were believed to be at home. "We were not interested in killing [Hamas] operatives only when they were in a military building or engaged in a military activity," one said. "It's much easier to bomb a family's home. The system is built to look for them in these situations."
  45. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. Two sources said that during the early weeks of the war they were permitted to kill 15 or 20 civilians during airstrikes on low-ranking militants. Attacks on such targets were typically carried out using unguided munitions known as "dumb bombs", the sources said, destroying entire homes and killing all their occupants.

    "You don't want to waste expensive bombs on unimportant people – it's very expensive for the country and there's a shortage [of those bombs]," one intelligence officer said. Another said the principal question they were faced with was whether the "collateral damage" to civilians allowed for an attack.

    "Because we usually carried out the attacks with dumb bombs, and that meant literally dropping the whole house on its occupants. But even if an attack is averted, you don't care – you immediately move on to the next target. Because of the system, the targets never end. You have another 36,000 waiting."
  46. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. According to conflict experts, if Israel has been using dumb bombs to flatten the homes of thousands of Palestinians who were linked, with the assistance of AI, to militant groups in Gaza, that could help explain the shockingly high death toll in the war.
  47. ^ "Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza". The Guardian. 3 أبريل 2024. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. According to international humanitarian law, a person who is identified as a member of an organized armed group (like the Hamas' military wing), or a person who directly participates in hostilities, is considered a lawful target. This legal rule is reflected in the policy of all law-abiding countries, including the IDF's legal practice and policy, which did not change during the course of the war.
  48. ^ "Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza". The Guardian. 3 أبريل 2024. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. As for the manner of carrying out the strikes – the IDF makes various efforts to reduce harm to civilians to the extent feasible in the operational circumstances ruling at the time of the strike.

    In this regard, the IDF reviews targets before strikes and chooses the proper munition in accordance with operational and humanitarian considerations, taking into account an assessment of the relevant structural and geographical features of the target, the target's environment, possible effects on nearby civilians, critical infrastructure in the vicinity, and more. Aerial munitions without an integrated precision-guide kit are standard weaponry in developed militaries worldwide. The IDF uses such munitions while employing onboard aircraft systems to calculate a specific release point to ensure a high level of precision, used by trained pilots. In any event, the clear majority of munitions used in strikes are precision-guided munitions.
  49. ^ "Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza". The Guardian. 3 أبريل 2024. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. Such a strategy risked higher numbers of civilian casualties, and the sources said the IDF imposed pre-authorised limits on the number of civilians it deemed acceptable to kill in a strike aimed at a single Hamas militant. The ratio was said to have changed over time, and varied according to the seniority of the target.

    According to +972 and Local Call, the IDF judged it permissible to kill more than 100 civilians in attacks on a top-ranking Hamas officials. "We had a calculation for how many [civilians could be killed] for the brigade commander, how many [civilians] for a battalion commander, and so on," one source said.

    [...]One source said that the limit on permitted civilian casualties "went up and down" over time, and at one point was as low as five. During the first week of the conflict, the source said, permission was given to kill 15 non-combatants to take out junior militants in Gaza. However, they said estimates of civilian casualties were imprecise, as it was not possible to know definitively how many people were in a building.

    Another intelligence officer said that more recently in the conflict, the rate of permitted collateral damage was brought down again. But at one stage earlier in the war they were authorised to kill up to "20 uninvolved civilians" for a single operative, regardless of their rank, military importance, or age.
  50. ^ McKernan، Bethan؛ Davies، Harry (3 أبريل 2024). "'The machine did it coldly': Israel used AI to identify 37,000 Hamas targets". The Guardian. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. Experts in international humanitarian law who spoke to the Guardian expressed alarm at accounts of the IDF accepting and pre-authorising collateral damage ratios as high as 20 civilians, particularly for lower-ranking militants. They said militaries must assess proportionality for each individual strike.
  51. ^ "Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza". The Guardian. 3 أبريل 2024. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. For each target, IDF procedures require conducting an individual assessment of the anticipated military advantage and collateral damage expected. Such assessments are not made categorically in relation to the approval of individual strikes. The assessment of the collateral damage expected from a strike is based on a variety of assessment methods and intelligence-gathering measures, in order to achieve the most accurate assessment possible, considering the relevant operational circumstances. The IDF does not carry out strikes when the expected collateral damage from the strike is excessive in relation to the military advantage.
  52. ^ "Israel Defence Forces' response to claims about use of 'Lavender' AI database in Gaza". The Guardian. 3 أبريل 2024. مؤرشف من الأصل في 2024-04-03. اطلع عليه بتاريخ 2024-04-04. The IDF outright rejects the claim regarding any policy to kill tens of thousands of people in their homes.
  53. ^ "UN chief 'deeply troubled' by reports Israel using AI to identify Gaza targets". France 24 (بالإنجليزية). 5 Apr 2024. Archived from the original on 2024-04-07. Retrieved 2024-04-06.
  54. ^ "'AI-assisted genocide': Israel reportedly used database for Gaza kill lists". Al Jazeera. مؤرشف من الأصل في 2024-05-19. اطلع عليه بتاريخ 2024-04-12.
  55. ^ "'AI-assisted genocide': Israel reportedly used database for Gaza kill lists". Al Jazeera. مؤرشف من الأصل في 2024-05-19. اطلع عليه بتاريخ 2024-04-16.
  56. ^ "Big Tech 'basically complicit' in civilian deaths in Gaza". Al Jazeera. مؤرشف من الأصل في 2024-04-23. اطلع عليه بتاريخ 2024-04-23.


وسوم <ref> موجودة لمجموعة اسمها "arabic-abajed"، ولكن لم يتم العثور على وسم <references group="arabic-abajed"/> أو هناك وسم </ref> ناقص

Kembali kehalaman sebelumnya