SciTechDaily

ניקולס

מדעני AI מובילים מזהירים מפני שחרור סיכונים מעבר לשליטת האדם

מדעני AI מובילים פרסמו קריאה לפעולה דחופה מצד מנהיגים עולמיים, תוך ביקורת על חוסר ההתקדמות מאז פסגת בטיחות AI האחרונה. הם מציעים מדיניות מחמירה לשלוט בפיתוח בינה מלאכותית ולמנוע שימוש לרעה בו, תוך שימת דגש על הפוטנציאל של AI לחרוג מהיכולות האנושיות ולהוות סיכונים חמורים. קרדיט: twoday.co.il.com

מומחי בינה מלאכותית מזהירים מפני פעולה גלובלית לא מספקת בנוגע לסיכוני בינה מלאכותית, ודוגלים בממשל קפדני כדי למנוע אסונות פוטנציאליים.

מדעני AI מובילים קוראים למנהיגי העולם לנקוט בפעולות נחרצות יותר בנוגע לסיכוני AI, ומדגישים שההתקדמות שנעשתה מאז פסגת הבטיחות הראשונה של AI בבלצ'לי פארק לפני שישה חודשים לא הייתה מספקת.

באותה פסגה ראשונית, מנהיגים עולמיים התחייבו לנהל בינה מלאכותית באחריות. עם זאת, כשפסגת בטיחות הבינה המלאכותית השנייה בסיאול (21-22 במאי) מתקרבת במהירות, עשרים וחמישה חוקרי AI מובילים טוענים שהמאמצים הנוכחיים אינם מספיקים כדי להגן מפני הסכנות הנשקפות מהטכנולוגיה. במאמר קונצנזוס שפורסם היום (20 במאי) בכתב העת מַדָעהם מציעים צעדי מדיניות דחופים שיש ליישם כדי לנטרל את האיומים מטכנולוגיות AI.

פרופסור פיליפ טור, המחלקה למדעי ההנדסה, אוניברסיטת אוקספורד, מחבר שותף בעיתון, אומר: "העולם הסכים במהלך פסגת הבינה המלאכותית האחרונה שאנחנו צריכים פעולה, אבל עכשיו הגיע הזמן לעבור מהצעות מעורפלות להתחייבויות קונקרטיות. מאמר זה מספק המלצות רבות וחשובות למה שחברות וממשלות צריכות להתחייב לעשות."

התגובה העולמית לא על המסלול מול התקדמות AI מהירה

לטענת מחברי המאמר, הכרחי שמנהיגי העולם יתייחסו ברצינות לאפשרות שמערכות בינה מלאכותית כלליות חזקות ביותר – העולות על יכולות אנושיות בתחומים קריטיים רבים – יפותחו בעשור הנוכחי או הבא. הם אומרים שלמרות שממשלות ברחבי העולם דנו בבינה מלאכותית גבולית ועשו ניסיון כלשהו להציג קווים מנחים ראשוניים, זה פשוט אינו תואם את האפשרות של התקדמות מהירה ושינוי שצפוי על ידי מומחים רבים.

המחקר הנוכחי על בטיחות בינה מלאכותית לוקה בחסר, כאשר רק 1-3% מהפרסומים של AI עוסקים בבטיחות. בנוסף, אין לנו מנגנונים או מוסדות למניעת שימוש לרעה ופזיזות, לרבות לגבי השימוש במערכות אוטונומיות המסוגלות לבצע פעולות באופן עצמאי ולרדוף אחר מטרות.

מומחי AI מובילים בעולם מוציאים קריאה לפעולה

לאור זאת, קהילה בינלאומית של חלוצי בינה מלאכותית פרסמה קריאה דחופה לפעולה. המחברים השותפים כוללים את ג'פרי הינטון, אנדרו יאו, סונג שחר, דניאל כהנמן המנוח; בסך הכל 25 מהמומחים האקדמיים המובילים בעולם בתחום הבינה המלאכותית והממשל שלה. המחברים מגיעים מארה"ב, סין, האיחוד האירופי, בריטניה ומעצמות בינה מלאכותיות אחרות, וכוללים זוכי פרס טיורינג, חתני פרס נובל ומחברי ספרי לימוד סטנדרטיים בינה מלאכותית.

מאמר זה הוא הפעם הראשונה שקבוצת מומחים גדולה ובינלאומית כל כך מסכימה על סדרי עדיפויות עבור קובעי מדיניות גלובליים בנוגע לסיכונים ממערכות בינה מלאכותית מתקדמות.

סדרי עדיפויות דחופים עבור ממשל בינה מלאכותית

המחברים ממליצים לממשלות:

  • להקים מוסדות מומחים מהירים לפיקוח על בינה מלאכותית ולספק להם מימון הרבה יותר גדול ממה שהם אמורים לקבל בכמעט כל תוכנית מדיניות נוכחית. לשם השוואה, למכון הבטיחות של AI האמריקאי יש כיום תקציב שנתי של 10 מיליון דולר, בעוד שלמנהל המזון והתרופות האמריקאי (FDA) יש תקציב של 6.7 מיליארד דולר.
  • לחייב הערכות סיכונים הרבה יותר קפדניות עם השלכות ניתנות לאכיפה, במקום להסתמך על הערכות מודל מרצון או לא מוגדרות.
  • דורשים מחברות בינה מלאכותית לתעדף בטיחות, ולהוכיח שהמערכות שלהן אינן יכולות לגרום נזק. זה כולל שימוש ב"מקרי בטיחות" (המשמשים עבור טכנולוגיות קריטיות לבטיחות אחרות כגון תעופה) אשר מעביר את הנטל להפגנת בטיחות למפתחי בינה מלאכותית.
  • ליישם תקני הפחתה התואמים את רמות הסיכון שמציבות מערכות בינה מלאכותית. עדיפות דחופה היא להגדיר מדיניות המופעלת אוטומטית כאשר AI מגיע לאבני דרך מסוימות של יכולות. אם בינה מלאכותית מתקדמת במהירות, דרישות מחמירות נכנסות לתוקף אוטומטית, אך אם ההתקדמות מואטת, הדרישות נרגעות בהתאם.

לדברי המחברים, עבור מערכות AI עתידיות בעלות יכולת יוצאת דופן, ממשלות חייבות להיות מוכנות לקחת את ההובלה ברגולציה. זה כולל רישיון לפיתוח מערכות אלו, הגבלת האוטונומיה שלהן בתפקידים חברתיים מרכזיים, עצירת פיתוחן ופריסה בתגובה ליכולות מדאיגות, מנדט בקרות גישה ודרישת אמצעי אבטחת מידע עמידים בפני האקרים ברמת המדינה, עד שההגנה המתאימה תהיה מוכנה.

השפעות AI עשויות להיות קטסטרופליות

בינה מלאכותית כבר מתקדמת במהירות בתחומים קריטיים כמו פריצה, מניפולציות חברתיות ותכנון אסטרטגי, ועלולה להציב בקרוב אתגרי שליטה חסרי תקדים. כדי לקדם מטרות לא רצויות, מערכות בינה מלאכותית יכולות לזכות באמון אנושי, לרכוש משאבים ולהשפיע על מקבלי החלטות מרכזיים. כדי להימנע מהתערבות אנושית, הם יכולים להיות מסוגלים להעתיק את האלגוריתמים שלהם על פני רשתות שרתים גלובליות. פשעי סייבר בקנה מידה גדול, מניפולציות חברתיות ונזקים אחרים עלולים להסלים במהירות. בעימות פתוח, מערכות AI יכולות לפרוס באופן אוטונומי מגוון כלי נשק, כולל ביולוגיים. כתוצאה מכך, יש סיכוי ממשי מאוד שקידום בינה מלאכותית בלתי מבוקרת עלולה להסתיים באובדן בקנה מידה גדול של חיים ושל הביוספרה, והדחקה או הכחדה של האנושות.

סטיוארט ראסל OBE, פרופסור למדעי המחשב באוניברסיטת קליפורניה בברקלי ומחבר של ספר הלימוד הסטנדרטי בעולם בנושא AI, אומר: "זהו מאמר קונצנזוס של מומחים מובילים, והוא קורא לרגולציה קפדנית של ממשלות, לא קודים וולונטריים של התנהגות שנכתבה על ידי התעשייה. הגיע הזמן להתייחס ברצינות למערכות AI מתקדמות. אלה לא צעצועים. הגדלת היכולות שלהם לפני שנבין איך להפוך אותם בטוחים היא פזיזה לחלוטין. חברות יתלוננו שקשה מדי לעמוד בתקנות – ש"רגולציה חונקת חדשנות". זה מגוחך. יש יותר תקנות על חנויות כריכים מאשר על חברות בינה מלאכותית".

ניקולס