An MQ- Reaper remotely piloted aircraft performs aerial maneuvers over Creech Air Force Base, Nev., June 25, 2015. The MQ-9 Reaper is an armed, multi-mission, medium-altitude, long-endurance remotely piloted aircraft that is employed primarily as an intelligence-collection asset and secondarily against dynamic execution targets. (U.S. Air Force photo by Senior Airman Cory D. Payne/Not Reviewed)

ניקולס

מערכות נשק אוטונומיות קטלניות: מחליף משחק דורש רגולציה

בשנים האחרונות, מדינות כמו ארצות הברית, בריטניה, הודו, ישראל, איראן, דרום קוריאה, רוסיה וטורקיה השקיעו רבות בשילוב בינה מלאכותית (AI) בפלטפורמות הנשק שלהן. פריסת קרגו-2 מתוצרת טורקיה בלוב בשנת 2020 סימנה את שחר הפריסה של מערכות נשק אוטונומיות קטלניות (LAWS) בשדה הקרב. השימוש ב-LAWS עורר חששות רציניים, שכן אין מנגנון רגולטורי בינלאומי או מסגרת חוקית קיימת לניהול הפיתוח, הפריסה וההעסקה של מערכות נשק כאלה.

עליית הבינה המלאכותית בתחום הצבאי משנה במהירות את פני הלוחמה, שכן מערכות נשק התומכות בינה מלאכותית עשויות להפחית את התפקיד המשמעותי של קבלת החלטות אנושית. כפי שהוגדר על ידי נילס אדלר (2023) במאמר שפורסם על ידי אל ג'זירה באנגלית "מערכות נשק אוטונומיות יכולות לזהות את המטרות שלהן ולהחליט לפתוח בהתקפה בעצמן, בלי שאדם יכוון או ישלוט על ההדק". יש קונצנזוס עולמי ש"מערכות בינה מלאכותית מתקדמות מבשרות יתרונות אסטרטגיים, אך גם מסתכנות בשיבושים בלתי צפויים במשטרים עולמיים הרגולטוריים והנורמות המבוססים על סכסוכים מזוינים".

מומחים וחוקרים מאמינים שלמערכות נשק התומכות בינה מלאכותית תהיה השפעה גדולה על לוחמה, שכן האוטונומיה המלאה של מערכות הנשק תבטל את הנורמות בשדה הקרב שנקבעו במהלך מאות שנים. על פי מועצת המחקר האירופית (ERC), "צבאות ברחבי העולם משתמשים כיום ביותר מ-130 מערכות נשק שיכולות לעקוב באופן אוטונומי ולעסוק במטרות שלהם".

למרות ההתקדמות בתחום זה, אין הגדרה מוסכמת עולמית לגבי מהי מערכת נשק אוטונומית קטלנית; שאלת האוטונומיה בשדה הקרב נותרה נתונה לפרשנות. משרד ההגנה האמריקני (DOD) מגדיר את החוקים כ"מערכות נשק שברגע שהופעלו, יכולות לבחור ולהפעיל מטרות ללא התערבות נוספת של מפעיל אנושי". מושג כזה של אוטונומיה במערכות נשק מכונה גם 'אדם מחוץ למעגל' או 'אוטונומיה מלאה'. במערכת נשק אוטונומית לחלוטין, מטרות נבחרות על ידי המכונה על בסיס קלט של AI, זיהוי פנים וניתוח ביג דאטה, ללא כל צוות אנושי.

קטגוריה נוספת של אוטונומיה במערכות נשק היא מערכות נשק חצי אוטונומיות או 'אנושיות בלולאה'. כלי נשק כאלה הם פצצות עצמיות ומערכות הגנה מפני טילים שקיימות כבר עשרות שנים.

ההתקדמות המהירה בשימוש ב-LAWS יצרה את הצורך לפתח מסגרת רגולטורית לניהול מערכות הנשק החדשות הללו. בהתאם לכך, מדינות שונות הסכימו להיכנס למשא ומתן להסדרה ואולי לאסור חוקים. אמנת האומות המאוחדות בנושא כלי נשק קונבנציונליים מסוימים (UN CCW) עשתה מספר מאמצים בכיוון זה על ידי ייזום דיאלוג בינלאומי על חוקים מאז 2014. ועידת הביקורת השישית של UN CCW בדצמבר 2021 הסתיימה ללא תוצאה חיובית על המנגנון המשפטי. הסכם על נורמות בינלאומיות המסדירות את השימוש בחוקים. למרות הקיפאון, הייתה הסכמה כי יש להמשיך בשיחות.

בשנת 2016, הוקמה גם קבוצת מומחים ממשלתיים (UN GGE) עם המנדט לדון ולהסדיר חוקים. אבל המדינות המשתתפות עדיין לא התקדמו במסגרת חוקית להסדיר ולאסור את הפיתוח, הפריסה והשימוש בחוקים.

ככל שהעולם מתקדם בשימוש בבינה מלאכותית בתחום הצבאי, מדינות עברו לנקוט עמדה שונה ב-CCW של האו"ם בשאלת הפיתוח והשימוש בחוקים. אגב, מדינות מסוימות ימצאו את האינטרס שלהן לשבת על צעדי בקרת נשק רק לאחר שהן ישיגו מידה מסוימת של התקדמות טכנולוגית בתחום זה.

יש לציין שמעצמות גדולות כמו ארה"ב, סין, רוסיה והאיחוד האירופי לא אוסרות על הסף או שביקשו לשמור על אי בהירות בעניין הנשק האוטונומי. דו"ח של שירות המחקר של הקונגרס האמריקאי, שעודכן בפברואר 2024, הדגיש כי "לארצות הברית אין כרגע חוקים במלאי, אך ייתכן שהמדינה תיאלץ לפתח חוקים בעתיד אם מתחרותיה יבחרו לעשות זאת".

סין היא מדינת ה-P-5 היחידה ב-CCW של האו"ם שקוראת לאסור על חוקים, ומדגישה את הצורך בפרוטוקול מחייב לשלוט במערכות הנשק הללו. סין בוויכוחים של האו"ם CCW טענה כי "מאפייני החוקים אינם בהתאם לעקרונות המשפט ההומניטרי הבינלאומי (IHL), שכן מערכות הנשק הללו מקדמות את הפחד ממרוץ חימוש ואת האיום של לוחמה בלתי נשלטת".

רוסיה נותרה משתתפת פעילה בדיונים ב-CCW של האו"ם, ומתנגדת למכשירים מחייבים משפטית האוסרים על פיתוח ושימוש בחוקים.

האיחוד האירופי אימץ עמדה בהתאם ל-IHL החלה על כל מערכות הנשק. הצהרת האיחוד האירופי בפגישה של GGE במרץ 2019 הדגישה את מרכזיות השליטה האנושית במערכות הנשק. האיחוד האירופי טוען שתמיד יש לשמור על שליטה אנושית על ההחלטה להפעיל כוח קטלני.

מנהיגים עולמיים, חוקרים ומנהיגי טכנולוגיה העלו חששות שפיתוח ושימוש בחוקים ישפיעו לרעה על השלום והביטחון הבינלאומיים. במרץ 2023 חתמו מנהיגים בתחומי ההייטק השונים על מכתב הקורא לעצור את הפיתוח של טכנולוגיות מתפתחות לששת החודשים הקרובים. המכתב הזהיר מפני הסכנות הפוטנציאליות לחברה ולאנושות כאשר ענקיות הטכנולוגיה מרוצות לפיתוח תוכניות אוטונומיות מלאות.

ההיסטוריה מזכירה לנו שלעולם לא ניתן לשמור ולקיים מונופול וירטואלי על פיתוח טכנולוגי לאורך זמן. בשנות ה-40, למשל, כשארצות הברית פיתחה פצצה גרעינית במסגרת פרויקט מנהטן, מעצמות אחרות תפסו את הפער ובנו פצצה משלהן. עם זאת, נדרשו יותר משני עשורים עד שהקהילה העולמית קבעה הסכם לאיסור הפצת נשק גרעיני, המכונה האמנה למניעת הפצת נשק גרעיני (NPT).

הצמיחה וההפצה הבלתי מוסדרת של LAWS מאיימת לשחרר עידן חדש של לוחמה הניזון על ידי פלטפורמות אוטונומיות, פגיעה בכבוד האדם, בהגנה על האזרחים ובבטיחותם של לא לוחמים. מעתה והלאה, יש צורך שמדינות ימצאו בסיס משותף להסדרה ופורמליזציה של הבנה של שליטה אנושית בשימוש בכוח. ערכים גלובליים, אתיקה וכללי לחימה שהנחו את האנושות באלפיים השנים האחרונות נותרו הכרחיים לשמירה על שלום וביטחון בינלאומיים.

ניקולס