עובדי OpenAI אולי נהנים מחופשה שהרווחתם קשה במהלך חופשת האביב של החברה השבוע, אבל כפי שהוכח בהודעת המימון החדשה של 122 מיליארד דולר שהתפרסמה רגעים ספורים לפני שהעמודה הזו נכנסה לדפוס, עולם הבינה המלאכותית אף פעם לא ישן. ההון החדש מגיע בעקבות הדיווח משבוע שעבר לפיו OpenAI התכוננה לשחרר מודל AI מתקדם חדש, בשם הקוד Spud. בפגישה כלל החברה ביום שלישי שעבר, הודיע המנכ"ל סם אלטמן לצוות הנאסף: "הדברים זזים מהר יותר ממה שרבים מאיתנו ציפו".
הדלפות מהסוג הזה מעוררות בהכרח אמינות חסרת נשימה מצד אחד ותפיסות ציניות לגבי מחזור ההייפ האינסופי ומחפש השקעות מצד שני. כרגיל, המציאות של המצב היא כנראה איפשהו באמצע. כפי שאמר לי חוקר אחד של OpenAI בסוף השבוע, "כל הדגמים החדשים טובים יותר מהישנים יותר – והדגמים היו קרובים או עולים על האינטליגנציה האנושית כבר די הרבה זמן."
בשבוע הבא נתחיל לקבל עוד כמה רמזים למה ש-OpenAI חושבת. במקביל לפרסום הקרוב של מודל Spud, למדתי, המעבדה מתכננת לפרסם סדרה של מאמרים והצעות חדשות המתארות רעיונות מדיניות חדשים לעידן מודיעין העל. מסמך ראשוני, שיפורסם בשבוע הבא, הוא חלק מדחיפה מחקרית רחבה יותר, בהובלת המנכ"ל אלטמן, העתידן הראשי ג'ושוע אחיעם וסגן הנשיא לעניינים גלובליים כריס להאן, שתתמקד במדיניות תעשייתית ופתרונות לשיבושים כלכליים בעידן הבינה המלאכותית.
מקור המכיר את הפרויקט הסביר שהרעיון הוא "לחשוב יותר מנקודת מבט של מדיניות בנושאים חברתיים ככל שהטכנולוגיה מתקדמת לעבר מודיעין-על". אדם זה התגרה בכמה "פותחי שיחות" שעלולים להיות שנויים במחלוקת שנועדו לעסוק בחתך רחב יותר של החברה בוויכוח בינה מלאכותית.
אלה שדיברתי איתם לא יכנסו יותר מדי לעומק העניינים, אבל כן דנו בצורך "לחשוב מחדש על האמנה החברתית" ולבנות "אינטליגנציה על שעובדת עבור כולם". זה בהחלט צלילים ממש כמו שהם מציעים צורה כלשהי של חלוקה מחדש של עושר (רעיון שמיליארדרים אוהבים). אבל האמת היא שמחקר במימון אלטמן על הכנסה בסיסית אוניברסלית הסתיים ב-2024 עם תוצאות מאכזבות משהו. חוקרים מצאו כי היתרונות של תשלומים חודשיים ללא גבולות נטו "להיעלם עד השנים השנייה והשלישית של התוכנית". הבה נקווה שיוזמת המחקר החדשה הזו העלתה פתרון טוב יותר וקונקרטי יותר לאובדן העבודה המונע על ידי AI.
התפתחויות אלו מסקרנות גם בהקשר של ציר ההתייעלות של החברה בשבועות האחרונים. ביום שלישי שעבר הודיעה OpenAI על סגירת דגם ייצור הווידאו שלה, Sora, ועל פירוק עסקת הרישוי שלה עם דיסני בשווי מיליארד דולר – להפתעתה הרבה של חברת הבידור. OpenAI גם ביטלה את תוכניותיה השנויות במחלוקת לשחרר בן לוויה אירוטי.
בינתיים, החברה מארגנת מחדש את מאמצי הבטיחות והאבטחה שלה, והיא הודיעה כי קרן OpenAI שלה מתכננת להוציא מיליארד דולר במהלך השנה הבאה על מחקר רפואי, חוסן בינה מלאכותית ותוכניות קהילתיות. אפילו קבוצת המוצרים שלה שונה ל-AGI Deployment.
כל המהלכים האלה מצביעים על חברה על סף… משהו. הנפקה, שאנו יודעים שמתוכננת להתרחש מאוחר יותר השנה? נופל באופן בלתי הפיך מאחורי מתחרותיה באנתרופיק ובגוגל? פריצת דרך טכנולוגית ממשית?
יש גם את הקדנציה של 2026 המתקרבת במהירות – ללא ספק מחזור הבחירות הראשון שבו בינה מלאכותית והשלכותיה יהיו באמת בראש מעייני הבוחרים האמריקאים. אולי החברה התעוררה לעובדה שדירוג הפופולריות העגום של AI צפוי להדביק אותה בצורה של רגולציה קשה.
באופן כללי, ביטויים כמו "בטיחות בינה מלאכותית" ו"סיכון בינה מלאכותית" הפכו למילים מלוכלכות מאז שנכנס דונלד טראמפ לתפקיד בפעם השנייה ו"האצה" הפכה לזעקת הגיוס של עמק הסיליקון. אבל יתכן שהגאות והגאות עוברות שוב, כשחלק מהאופוריה סביב טראמפ ופרדיגמת ההרגולציה שלו מתחילה להתפוגג. בפברואר, הוציאה OpenAI את חוקר הבטיחות דילן סקנדינרו מאנתרופיק כדי להוביל את צוות ההיערכות שלה, שכעת נראה כמי שמאויש בתפקידים המתמקדים בסיכונים ביולוגיים וכימיים גבוליים, סיכוני אבטחת סייבר, והשם המבשר רעות "אובדן שליטה".
מעניין שההנהגה של OpenAI לא בדיוק הלכה במנעול כשזה מגיע לפוליטיקה. אחיעם נראה לאחרונה מצייץ על האופן שבו "המאמץ של הלובי הפרו-AI לטרפד את אלכס בורס יובן מאוחר יותר כמטרה עצמית חסרת טעם". רבים תפסו שזה קל נגד נשיא OpenAI, גרג ברוקמן, שהשליך מיליוני דולרים ל-Super PAC המוקדש לתקיפת מועמדים פרו-רגולציה כמו בורס.
OpenAI היא לא המעבדה היחידה שבה ניתן להרגיש את השינוי הטונאלי. אנתרופיק חוותה תנופה עצומה של דעת הקהל בעקבות מסע הצלב שלה נגד מה שלטענתה היה הגזמה של משרד ההגנה. (Woke חזרה!) בשבוע שעבר חשפה הדלפה שאנתרופיק עבדה על מהדורת דגם חדש גדול משלה, בשם הקוד Mythos. בהצהרה ל מַזָל, דובר החברה אמר כי המודל מייצג "שינוי צעד" ביכולות – כאשר טיוטת הפוסט שהודלפה בבלוג מזהירה מפני סיכונים מיוחדים בתחום אבטחת הסייבר עקב תחכום המודל.
סבינה נונג, חוקרת בטיחות בינה מלאכותית במכון עתיד החיים, אמרה כי היא חשדנית כלפי "בניין נרטיבי מהסוג המחודש הזה", במעבדות הגבול סביב "סיכונים קטסטרופליים וכוחות משבשים". בינתיים, היא רואה מגמת נגד מטרידה: "בעוד שאנשים מדברים על זה הרבה יותר פעמים, העובדה היא שאנחנו רואים אפילו פחות מחויבות מחייבת מצד החברות".
קשה לברוח מהתחושה שגם בצ'אטים ותזכירים שהודלפו, המעבדות האלה מופיעות בפני קהל. כפי שכתב החשבון האנונימי האהוב על תעשיית הבינה המלאכותית בשבוע שעבר, "זה עמדה קשה להיות בה כאשר כל ההתקשרויות הפרטיות שלך הן הלכה למעשה תקשורת ציבורית… 'פרויקטים של מנהטן' לא ממש היו בתחום האופציות, אתה רק צריך להאיץ בעקביות את היריבים שלך בפומבי."

