cc Robert Scoble, modified, https://www.flickr.com/photos/scobleizer/4870003098

ניקולס

הסיכון לדומיננטיות הבינה המלאכותית של אמריקה הוא סטגנציה אלגוריתמית

דמיינו לעצמכם אפליקציה של בינה מלאכותית (AI) שתוכלו לתקשר איתה בצורה משמעותית ברגעים של התלבטות מדוקדקת. אני לא מתכוון לחיקוי של תקשורת שפופולארית על ידי צ'אטבוטים המופעלים על ידי מודלים של שפה גדולה (LLMs), שהתגלמה לאחרונה ב-OpenAI GPT-4o. אני רואה בעיני רוחי מודל בינה מלאכותית שיכול לעסוק בצורה פרודוקטיבית עם ספרות מיוחדת, לחלץ ולנסח מחדש רעיונות מפתח, ולעסוק בהתנהלות משמעותית הלוך ושוב עם מומחה אנושי. אפשר בקלות לדמיין את ישימותו של מודל כזה בתחומים כמו מחקר רפואי. עם זאת, מערכות למידת המכונה שתפסו את תשומת הלב של העולם – AI יצירתי כמו ChatGPT, Gemini וקלוד – חסרות את המשאבים האינטלקטואלים אוטונומיה הכרחי כדי לתמוך ביישומים כאלה. חזון הבינה המלאכותית הנעלה שלנו נשאר עניין של מדע בדיוני – לעת עתה.

הדחף לשלוט בבינה מלאכותית בגיאופוליטיקה אינו נרתע מהמציאות הזו. אכן, הגיאופוליטי "לִטרוֹף"עבור AI שהופעל בשנת 2023—מיוצג על ידי מדינות מגוונות כמו בריטניה, צרפת, גרמניה, הודו, ערב הסעודית, איחוד האמירויות הערביות, ארצות הברית וסין – נוצר ללא ספק על ידי AI גנרטיבי ולמידת מכונה באופן רחב יותר. עם זאת, כמה פינות בעולם הבינה המלאכותית תופסות למידת מכונה רק את השלב הנוכחי של הבינה המלאכותית המתקדמת – אך לא השלב האחרון שלה.

פרדיגמות מעבר לאסטרטגיות הלמידה הקשורות למידת מכונה נבדקות, למשל, על ידי המכון לבינה מלאכותית כללית בבייג'ין (BIGAI) הנתמך על ידי המדינה שהוקם ב-2020. כמרכז לאבטחה וטכנולוגיה מתפתחת ב-2023 להגיש תלונה ממחיש, BIGAI נוסדה בחלקה על ידי חוקרים שהתפכחו מגישות "ביג דאטה" – כולל הבמאי המשכיל אמריקאי Zhu Songchun – במרדף אחר מודלים של AI "בהשראת המוח". הנושא של המחקר של BIGAI הוא "נתונים קטנים, משימה גדולה".

החשיבות האסטרטגית של AI "קטן נתונים" מוכרת גם על ידי אוסטרליה קינגסטון AI Group, מורכב מחוקרי AI שמטרתם לתאם את אסטרטגיות המחקר והחינוך הלאומיות של AI באוסטרליה. בפברואר 2023 הַצהָרָה, הקבוצה זיהתה את החיסרון היחסי של אוסטרליה בגודל כלכלי ובגישה למערכי נתונים גדולים המשמשים לאימון מודלים של למידת מכונה. לכן הם מזהים את הצורך בפיתוח 'יכולת נתונים קטנים' המאפשרת לאוסטרליה להתחרות ב"עיצוב מערכות AI ממערכי נתונים קטנים".

יתר על כן, המאמצים ההודיים לאמץ חדשנות טכנולוגית הודגשו על ידי ראש הממשלה נרנדרה מודי ביוני 2023. כתובת לקונגרס האמריקני, תוך ערעור על שיתוף הפעולה של ארצו עם אמריקה באמצעות ה יוזמה בנושא טכנולוגיה קריטית ומתפתחת (אייס טי). עם זאת, ראוי לציין באותה מידה את זה של מודי פְּגִישָׁה עם חוקר בינה מלאכותית עמית שתמנהל ה מכון לבינה מלאכותית של אוניברסיטת דרום קרוליינה.

בדצמבר 2023, Sheth הציג את ה-AI הבא חָזוֹן לוועידה השנתית השלישית של הודו של המזכירים הראשיים: ארה"ב הובילה את שני השלבים הראשונים של בינה מלאכותית. בינה מלאכותית "סמלית" שלטה בגל הראשון בעוד שה-AI ה"סטטיסטי" האופנתי (כלומר, למידת מכונה) שולט בגל השני. הודו יכולה וצריכה, טוען שת, "לשלוט בבינה מלאכותית שלב III." הגל השלישי מתייחס למודלים של בינה מלאכותית המסוגלים להסתגל להקשר, עם פרדיגמה מתהווה ברוח זו הידועה בשם AI נוירו-סימבולי, המשלב טכניקות משני הגלים להשגת יכולות חדשות. בעוד שבינה מלאכותית גנרטיבית חשובה עבור הוֹדוּשת סיפר פקידים הודים ש"בינה מלאכותית נוירו-סימבולית… תניע את השלב הבא, השלישי של הבינה המלאכותית."

אם ההמשגה הזו של הפיתוח של בינה מלאכותית נשמעת מוכרת, כדאי להזכיר שהיא נובעת מהסוכנות האמריקאית לפרויקטי מחקר מתקדמים של ההגנה האמריקאית (DARPA). DARPA מבחין בין שני גלי הבינה המלאכותית הראשונים שבהם מודלים נשלטים תחילה על ידי כללים ולאחר מכן לומדים באמצעות קשרים סטטיסטיים של נתונים. בשני הגלים, לעומת זאת, למודלים אין יכולות חשיבה חזקות במצבים חדשים. של DARPA "גל שלישי" רואה בעיני רוחו דגמים המסוגלים "חשיבה הקשרית", מאמץ שהתגלם ב-2018 AI Next קמפיין ל "לדחוף מעבר לטכניקות למידת מכונה של הגל השני" (ו בָּרוּר בשנת 2022 שלה מובטח נוירו סימבולי למידה והיגיון תכנית).

המאמצים של DARPA מתפתחים ללא הרף. ובכל זאת, ההמשגה המשולשת של בינה מלאכותית היא שריד לעידן טרום-ChatGPT, וקובעי מדיניות אמריקאים מסתכנים באיבוד עיניהם של המשמעות האסטרטגית שלו.

התבססות אמריקאית בגל השני

למרות שלמידת מכונה תישאר לזמן מה הכרחית לאותם שחקנים ממלכתיים המעוניינים להפוך לשחקנים מובילים בתחום הבינה המלאכותית, הסיבה לכך שמדינות כמו סין, אוסטרליה והודו מעודדות מחקר כזה היא משום שהטכניקות החדישות ביותר בלמידת מכונה אינן עושות זאת. להרשות לעצמנו את היכולות הנדרשות לתמיכה ביישומים כמו הסוכן הרפואי ההיפותטי שלנו.

עם זאת, חלק ניכר מההתמקדות של קובעי המדיניות האמריקאים ב-AI מעוגנת בעידן ובמהות של AI "ביג דאטה". 2023 של הנשיא ביידן צו ביצוע על AI בטוח, מאובטח ואמיןלמשל, מפעיל את חוק הייצור הביטחוני כדי לחייב חברות שמתכננות לפתח או לפתח באופן פעיל "מודלים בסיסיים דו-שימושיים" שהכשרתם מפרה את הסף החישובי של 1026 פעולות נקודה צפה (כִּשָׁלוֹן) לדווח על פיתוח ובדיקות כאלה למשרד המסחר. הרעיון, כפי שמגדיר זאת פול שרה, הוא שכוח חישוב הוא "פרוקסי גולמי" עבור יכולות הדגם. המנדט משקף אמונה רחבה יותר ביעילות של הגדלת גודל המודלים ומערכי הנתונים עליהם הם מאומנים ובכוח המחשוב הנדרש.

יתר על כן, ממשל ביידן בְּרֵכָה מאוקטובר 2022 מחשוב מתקדם בקרות יצוא על חברות סיניות – ובעקבותיהן, מתפתח ללא הרף הגבלות– מבוסס על הרעיון שעיצוב וציוד ייצור של מוליכים למחצה אמריקאיים אינם יכולים לאפשר את הפיתוח הסיני של דגמי AI מתקדמים. ההנחה הסמויה היא שבינה מלאכותית מתקדמת תסתמך ללא הגבלת זמן על הנתונים המסיביים וכוח המחשוב המאפיינים מודלים של למידת מכונה כיום.

מבין הביקורות המוקדמות על בקרות היצוא של אוקטובר 2022, מרטין ראסר וקווין וולף– בטענה לטובתם – ציינו שבקרות כאלה הן "סיכון מחושב" בכך שהן יכולות להגביר את "הפוטנציאל לפריצות דרך בבינה מלאכותית הנותנת מענה לכמה מהחסרונות של למידה עמוקה… על ידי חיפוש אחר מה שנקרא בינה מלאכותית היברידית", בהתייחסות ל- Neuro- AI סמלי.

הביקורת הייתה ראויה, אך מאוחרת. BIGAI הוקמה כדי לעבור מעבר ללמידת מכונה בשנת 2020, הרבה לפני הרשימה המורחבת של בקרות הייצוא של ממשל ביידן. אוסטרליה והודו, מצידן, מכירות בחשיבותו של מחקר בינה מלאכותית היברידי, תוך שהם נהנים מיחסים הרמוניים יותר עם ארה"ב.

השימוש בבקרות יצוא כדי לחזק את מוביל הבינה המלאכותית של אמריקה בהחלט שדות משנה של בינה מלאכותית – הבולטת ביותר, בעיבוד שפה טבעית – מבשרת ביעילות את ארה"ב בגל השני והדומיננטי כיום של בינה מלאכותית (למידת מכונה סטטיסטית). המלכודת של ההתבצרות הזו היא שכל התועלת שהיא קוטפת את התעשייה וההגנה האמריקאית בטווחים הקצרים והבינוניים, עתידה לטווח ארוך של AI עשוי להיות שייך לאותן מדינות המאמצות דרך פעילה ומכוונת יותר מעבר למידת מכונה. ההסתמכות על הגבלת גישה לכלי מחשוב ועובדים מתקדמים, אם כן, אינה מספיקה עבור ארה"ב כדי לשמור על דומיננטיות הבינה המלאכותית שלה.

יש צורך במאמץ משותף להרמוניה של מחקר הן מקומי והן עם שותפים בינלאומיים נבחרים בפרדיגמה מתפתחת כמו AI Neuro-Symbolic.

שימור והרחבת דומיננטיות הבינה המלאכותית האמריקאית

ישנן ראיות טנטטיביות לכך שקובעי מדיניות אמריקאים מבינים את הצורך לעסוק במאמצי הבינה המלאכותית הילידית של מדינות שותפות, לרבות אלה שהן קישורים עם סין התקרבו יותר ממה שהנוחות מאפשרת. מקרה בנקודה הוא של מיקרוסופט ההסכם האחרון להשקיע 1.5 מיליארד דולר בקונגלומרט הבינה המלאכותית G42 שבסיסה באבו דאבי, שקדם למשא ומתן עם ממשל ביידן. מוחמד סולימאן של המכון למזרח התיכון, באפריל 2024 עֵד אל ה הוועדה לבחינת כלכלה וביטחון של ארה"ב-סיןטוען שזוהי בחלקה הכרה גלויה בכך שמדינות כמו איחוד האמירויות הערביות מתכוונות להפוך למנהיגות בינה מלאכותית.

אולם הכרה זו היא רק חלק מהמאמץ ההכרחי של קובעי מדיניות אמריקאים. חלק גדול מהגל השני של המחקר הבסיסי של AI מתרחש במגזר הפרטי, שבו חברות אוהבות גוגל ו OpenAI השיגה אבני דרך חדשות בעיבוד שפה טבעית. מיקרוסופט, בה שׁוּתָפוּת עם OpenAI – ועכשיו גם עם G42 – לא ניתן לצפות לנקוט בצעדים הדרושים כדי להבטיח טכניקות חדשות עבור AI של הגל השלישי התומכות ביישומים בעלי סיכון גבוה במהלך מירוץ חימוש של AI על AI Generative.

לפיכך יש לנקוט פעולה מגובשת של ממשלת ארה"ב כדי לאזן את המאזניים, כולל הרמוניה והרחבה על יוזמות קיימות.

מודל שימושי הוא השותפות של משרד ההגנה לשנת 2023 עם הקרן הלאומית למדע למימון מכון AI לבינה מלאכותית וטבעית (ארני). ה שׁוּתָפוּת עוזר לממן מאמץ לקשר את "ההתקדמות הגדולה שנעשתה במערכות (AI) למהפכה בהבנתנו את המוח." האינטרדיסציפלינריות של ARNI מהדהדת מקהלת קולות על הפירות הפוטנציאליים של AI Neuro-Symbolic: זה בהשראת על ידי יכולתו של המוח האנושי לנמק, אנלוגי ולעסוק בתכנון ארוך טווח, תוך שימת דגש על בניית אלגוריתמים התומכים ביישומים הניתנים להסבר; זה עשוי להציע "ערבויות ביצוע"נעדר בלמידה עמוקה; והוא מציע סְגִילוּת לא נראה בלמידה עמוקה. קובעי המדיניות עשויים לפיכך להסתכל על ARNI מחקר בין-תחומי ותכנית מימון כדוגמה למחקר עתידי התאימו את הצרכים של AI הגל השלישי.

בנוסף, יש לערב שחקנים קטנים יותר בתעשייה אך צופים קדימה. אלה כוללים חברות כמו סימבוליקה שכן הצוות שלו שואף למנף ענף יישומי של מָתֵימָטִיקָה לבנות מודל ניתן להסבר המסוגל להנמקה מובנית על פחות נתוני אימון וכוח מחשוב ו פסוקים AI שהמדען הראשי שלו קרל פריסטון אומר החברה "שואפת לספק דגמים קטנים יותר ב-99%" מבלי לוותר על האיכות". עבודה כזו עשויה לתרום ליסודות הבינה המלאכותית של הגל השלישי.

לבסוף, ארה"ב צריכה לגייס באופן סלקטיבי את השותפויות שלה לקידום מחקר בינה מלאכותית היברידית המכוונת לליקויים במודלים עכשוויים של בינה מלאכותית. במיוחד, עלייתו של "מיני צדדיםכמו דיאלוג האבטחה המרובע ו-AUKUS מאפשרים שיתוף פעולה בנושא טכנולוגיות מתפתחות. אמנם יש לנקוט איפוק כדי למנוע נפילה של טכנולוגיה מתקדמת לידיים יריבות, אך על ארה"ב לשקול יוזמות המכוונות לתחומים מוגדרים של מחקר בינה מלאכותית היברידית – במיוחד כאשר שותפויות כמו AUKUS מבדרות את ההשתתפות של יפן בפעילויות (לפחות) עמוד ב' וכמו דרום קוריאה שוקל משתף את הטכנולוגיה הצבאית המתקדמת שלה.

אמריקה, אם היא רוצה לעשות יותר מאשר רק לשמור על היתרון התחרותי שלה בגל השני של AI, חייבת לנקוט בצעדים אלה כדי ליצור ולרתום את הגל השלישי שלה.

וינסנט J. Carchidi הוא מלומד שאינו תושב בתוכנית הטכנולוגיות האסטרטגיות ואבטחת הסייבר של המכון למזרח התיכון. הוא גם חבר ב-Foreign Policy for America's 2024 NextGen Initiative. הדעות שלו הן שלו. אתה יכול לעקוב אחריו לינקדאין ו איקס.

ניקולס