SciTechDaily

ניקולס

50 מומחים גלובליים מזהירים: עלינו לעצור בינה מלאכותית מונעת טכנולוגיה

מומחים דוגלים בבינה מלאכותית ממוקדת באדם, ודוחקים בעיצוב טכנולוגיה שתומכת ומעשירה את חיי האדם, במקום לאלץ בני אדם להסתגל אליה. ספר חדש הכולל חמישים מומחים מלמעלה מ-12 מדינות ודיסציפלינות בוחן דרכים מעשיות ליישם בינה מלאכותית ממוקדת באדם, מטפל בסיכונים ומציע פתרונות בהקשרים שונים.

לפי צוות של מומחים גלובליים, עלינו לעצור את הפיתוח של טכנולוגיית AI חדשה רק למען החדשנות, מה שמאלץ התאמות בפרקטיקות, הרגלים וחוקים כדי להתאים את הטכנולוגיה. במקום זאת הם דוגלים ביצירת בינה מלאכותית שעונה בדיוק על הצרכים שלנו, תוך התאמה עם העקרונות של עיצוב בינה מלאכותית ממוקדת באדם.

חמישים מומחים מרחבי העולם תרמו מאמרי מחקר לספר חדש על איך להפוך את הבינה המלאכותית ליותר 'ממוקדת באדם', תוך בחינת הסיכונים – והחמצת הזדמנויות – של אי שימוש בגישה זו ובדרכים מעשיות ליישם אותה.

המומחים מגיעים מלמעלה מ-12 מדינות, כולל קנדה, צרפת, איטליה, יפן, ניו זילנד ובריטניה, ויותר מ-12 דיסציפלינות, כולל מדעי המחשב, חינוך, משפט, ניהול, מדעי המדינה וסוציולוגיה.

AI ממוקד באדם בוחן טכנולוגיות בינה מלאכותית בהקשרים שונים, כולל חקלאות, סביבות עבודה, שירותי בריאות, משפט פלילי, השכלה גבוהה, ומציע אמצעים ישימים להיות יותר 'מרוכזים באדם', כולל גישות לארגזי חול רגולטוריים ומסגרות לעבודה בין-תחומית.

מהו AI המתמקד באדם?

בינה מלאכותית (AI) מחלחלת לחיינו בצורה הולכת וגוברת וחלק מהמומחים טוענים שהסתמכות רק על חברות טכנולוגיה לפתח ולפרוס את הטכנולוגיה הזו באופן שבאמת משפר את החוויה האנושית תהיה מזיקה לאנשים בטווח הארוך. כאן נכנס לתמונה AI הממוקד באדם.

אחת המומחים הבכירים בעולם לבינה מלאכותית ממוקדת באדם, שאנון ולור מאוניברסיטת אדינבורו בסקוטלנד, מסבירה שבינה מלאכותית ממוקדת באדם פירושה טכנולוגיה שעוזרת לבני אדם לפרוח.

היא אומרת: "טכנולוגיה הממוקדת באדם היא ליישר את המערכת האקולוגית הטכנולוגית כולה עם הבריאות והרווחה של האדם. הניגוד הוא עם טכנולוגיה שנועדה להחליף בני אדם, להתחרות בבני אדם או להפחית בערכם של בני אדם, בניגוד לטכנולוגיה שנועדה לתמוך, להעצים, להעשיר ולחזק בני אדם".

היא מצביעה על בינה מלאכותית גנרטיבית, שעלתה בפופולריות בשנים האחרונות, כדוגמה לטכנולוגיה שאינה ממוקדת בבני אדם – היא טוענת שהטכנולוגיה נוצרה על ידי ארגונים שפשוט רוצים לראות כמה חזק הם יכולים ליצור מערכת, ולא לענות על צורך אנושי.

"מה שאנחנו מקבלים זה משהו שאנחנו צריכים להתמודד איתו, בניגוד למשהו שעוצב על ידינו, בשבילנו, ולהועיל לנו. זו לא הטכנולוגיה שהיינו צריכים", היא מסבירה. "במקום להתאים טכנולוגיות לצרכים שלנו, אנחנו מתאימים את עצמנו לצרכי הטכנולוגיה".

מה הבעיה עם AI?

תורמים ל AI ממוקד באדם לפרוש את תקוותיהם, אך גם דאגות רבות לגבי AI כעת ובמסלול הנוכחי שלה, ללא מיקוד ממוקד אנושי.

מלווינה אנה וויצ'יק, מאוניברסיטת בולוניה, איטליה ומאוניברסיטת לוקסמבורג, מצביעה על ההטיות המערכתיות בפיתוח ה-AI הנוכחי. היא מציינת שקהילות בשוליים היסטורית אינן ממלאות תפקיד משמעותי בתכנון ובפיתוח של טכנולוגיות בינה מלאכותית, מה שמוביל ל"התבצרות של נרטיבים כוחניים רווחים".

היא טוענת כי יש חוסר בנתונים על מיעוטים או שהנתונים הזמינים אינם מדויקים, מה שמוביל לאפליה. יתר על כן, הזמינות הלא שוויונית של מערכות בינה מלאכותית גורמת להרחבת פערי הכוח, כאשר קבוצות שוליות אינן מסוגלות להזין את לולאת הנתונים בינה מלאכותית ובו זמנית אינן מסוגלות להפיק תועלת מהטכנולוגיות.

הפתרון שלה הוא גיוון במחקר וכן פרויקטים בין-תחומיים ושיתופיות על המפגש בין מדעי המחשב, האתיקה, המשפטים ומדעי החברה. ברמת המדיניות, היא מציעה שיוזמות בינלאומיות צריכות לכלול דיאלוג בין-תרבותי עם מסורות לא-מערביות.

בינתיים מאט מאלון, מאוניברסיטת תומפסון ריברס בקנדה, מסביר כיצד בינה מלאכותית מציבה אתגר לפרטיות מכיוון שמעט אנשים באמת מבינים איך הנתונים שלהם נאספים או איך משתמשים בהם.

"פערי ההסכמה והידע הללו גורמים לחדירה מתמדת לתחומים שפרטיות אחרת עשויה לבקש לשלוט בהם", הוא מסביר. "הפרטיות קובעת עד כמה אנחנו נותנים לטכנולוגיה להגיע לתחומי החיים והתודעה האנושית. אבל ככל שהזעזועים האלה מתפוגגים, הפרטיות מוגדרת מחדש ומתקבלת מחדש במהירות, וככל שה-AI לוכדת יותר זמן, תשומת לב ואמון, הפרטיות תמשיך לשחק תפקיד מכריע בשרטוט הגבולות בין האדם לטכנולוגיה".

מאלון מציע ש"פרטיות תהיה בתנופה עם הקבלה או הדחייה של טכנולוגיות מונעות בינה מלאכותית", ושגם כשהטכנולוגיה מעניקה שוויון גדול יותר, סביר להניח שהאינדיבידואליות עומדת על כף המאזניים.

AI והתנהגות אנושית

בנוסף לבחינת ההשפעות החברתיות, תורמים חוקרים את ההשפעות ההתנהגותיות של שימוש בבינה מלאכותית במתכונתו הנוכחית.

אושרי בר-גיל מהמכון לחקר מדעי ההתנהגות, ישראל, ביצע פרויקט מחקר שבחן כיצד השימוש בשירותי גוגל גרם לשינויים בתפיסה העצמית והעצמית. הוא מסביר ש'עצמי' של נתונים נוצר כאשר אנו משתמשים בפלטפורמה, ואז הפלטפורמה מקבלת יותר נתונים מהאופן שבו אנו משתמשים בה, ואז היא משתמשת בנתונים ובהעדפות שאנו מספקים כדי לשפר את הביצועים שלה.

"למנועי ההמלצות היעילים והמועילים הללו יש עלות נסתרת – ההשפעה שלהם עלינו כבני אדם", הוא אומר. "הם משנים את תהליכי החשיבה שלנו, משנים כמה מהיבטי הליבה האנושיים שלנו של התכוונות, רציונליות וזיכרון בספירה הדיגיטלית ובעולם האמיתי, ומצמצמים את הסוכנות והאוטונומיה שלנו."

כמו כן, בחנו את ההשפעות ההתנהגותיות, אליסטר נוט מאוניברסיטת ויקטוריה בוולינגטון, ניו זילנד, ו-Tapabrata Chakraborti ממכון אלן טיורינג, אוניברסיטאי קולג' בלונדון, בריטניה, ודינו פדרסקי מאוניברסיטת פיזה, איטליה, בחנו את השימוש הנרחב ב-AI ברשתות החברתיות.

"בעוד שמערכות הבינה המלאכותית המשמשות את פלטפורמות המדיה החברתיות ממוקדות באדם במובנים מסוימים, יש כמה היבטים של פעולתן שראויים לבדיקה מדוקדקת", הם מסבירים.

הבעיה נובעת מהעובדה שבינה מלאכותית לומדת ללא הרף מהתנהגות המשתמשים, ומשכללת את מודל המשתמשים שלהם כשהם ממשיכים לעסוק בפלטפורמה. אבל משתמשים נוטים ללחוץ על הפריטים שמערכת הממליצים מציעה עבורם, מה שאומר שמערכת הבינה המלאכותית צפויה לצמצם את טווח תחומי העניין של המשתמש עם הזמן. אם משתמשים מקיימים אינטראקציה עם תוכן מוטה, סביר יותר שימליצו להם על התוכן הזה ואם הם ימשיכו לקיים איתו אינטראקציה, הם ימצאו את עצמם רואים יותר ממנו: "בקיצור, יש סיבה סבירה לדאגה שמערכות ממליצים עשויות לשחק תפקיד בהנעת משתמשים לעבר קיצוני עמדות."

הם מציעים כמה פתרונות לבעיות אלו, כולל שקיפות נוספת מצד חברות המחזיקות בנתונים על מערכות ממליצים כדי לאפשר לימוד ודיווח רב יותר על ההשפעות של מערכות אלו, על עמדות המשתמשים כלפי תוכן מזיק.

איך בינה מלאכותית ממוקדת אדם יכולה לעבוד במציאות?

פייר לארוש מאוניברסיטת מונטריאול, קנדה, טוען כי ההתייחסות לבינה מלאכותית כאל 'אובייקט עצמאי של חוק ורגולציה' והנחה ש'אין חוק החל כרגע על AI' הותירה כמה קובעי מדיניות להרגיש כאילו מדובר במשימה בלתי ניתנת למעבר.

הוא מסביר: "מכיוון ש-AI נתפס כפיתוח טכנולוגי חדש, ההנחה היא שעדיין לא קיים חוק עבורה. באותה צורה, למרות המחסור – אם לא היעדר מוחלט – של כללים ספציפיים הנוגעים לבינה מלאכותית כשלעצמה, לא חסרים חוקים שניתן להחיל על בינה מלאכותית, בגלל ההטבעה שלו ביחסים חברתיים וכלכליים".

לרוך מציע שהאתגר הוא לא ליצור חקיקה חדשה אלא לברר כיצד ניתן להרחיב ולהחיל את החוק הקיים על AI, ומסביר: "לאפשר לדיון להיות מוסגר כדיון אתי פתוח על דף משפטי ריק יכול להיות נגד. -פרודוקטיבי לקביעת מדיניות, במידה שהיא פותחת דלת לטקטיקות עיכוב שונות שנועדו להאריך את הדיון ללא הגבלת זמן, בעוד הטכנולוגיה ממשיכה להתקדם בקצב מהיר".

Benjamin Prud'homme, סגן הנשיא, מדיניות, חברה ועניינים גלובליים ב-Mila – Quebec Artificial Intelligence Institute, אחת הקהילות האקדמיות הגדולות המוקדשות לבינה מלאכותית, מהדהד את הקריאה הזו לאמון בקובעי המדיניות.

הוא מסביר: "ההמלצה הראשונה שלי, או אולי התקווה הראשונה שלי, תהיה שנתחיל להתרחק מהדיכוטומיה בין חדשנות לרגולציה – שנכיר שאולי זה בסדר לחנוק חדשנות אם החדשנות הזו היא חסרת אחריות.

"הייתי אומר לקובעי המדיניות להיות בטוחים יותר ביכולתם לווסת בינה מלאכותית; כי כן, הטכנולוגיה חדשה, אבל זה לא מדויק לומר שהם לא התמודדו (בהצלחה) עם אתגרים הקשורים לחדשנות בעבר, הרבה אנשים בקהילת הממשל של AI מפחדים לא לעשות דברים נכון מההתחלה. ואתה יודע, דבר אחד שלמדתי מההתנסויות שלי בחוגי קביעת מדיניות הוא שסביר להניח שלא נשיג את זה נכון מההתחלה. זה בסדר.

"לאף אחד אין שרביט קסמים. אז, הייתי אומר את הדברים הבאים לקובעי המדיניות: קחו את הנושא ברצינות. תעשה את הכי טוב שאתה יכול. הזמינו מגוון רחב של נקודות מבט – כולל קהילות מודרות ומשתמשי קצה – לשולחן כשאתם מנסים למצוא את מנגנוני הממשל הנכונים. אבל אל תיתן לעצמך להיות משותק על ידי קומץ קולות המעמידים פנים שממשלות לא יכולות לווסת AI מבלי לחנוק חדשנות. האיחוד האירופי יכול להוות דוגמה מהבחינה הזו, שכן חוק הבינה המלאכותית המאוד שאפתנית, החוק המערכתי הראשון בנושא בינה מלאכותית, אמור להיות מאושר באופן סופי בחודשים הקרובים".

ניקולס