SciTechDaily

ניקולס

מחקר קיימברידג': לצ'אטבוטים של AI יש "פער אמפתיה", וזה עלול להיות מסוכן

מחקר חדש באוניברסיטת קיימברידג' מזהה "פער אמפתיה" משמעותי בצ'טבוטים של בינה מלאכותית, המהווה סיכונים למשתמשים צעירים שלעתים קרובות רואים במערכות אלו אנשי סוד כמו חיים. המחקר מדגיש אירועים שבהם אינטראקציות בינה מלאכותית הובילו להצעות לא בטוחות, המחקר תומך בגישה פרואקטיבית להפיכת AI לבטוחה לילדים. הוא מציע מסגרת מקיפה של 28 פריטים כדי לסייע לבעלי עניין, כולל חברות ומחנכים, להבטיח שטכנולוגיות בינה מלאכותית מספקות באחריות את הצרכים והפגיעות הייחודיים של ילדים. קרדיט: twoday.co.il.com

מחקר חדש מציע מסגרת ל"בינה מלאכותית בטוחה לילדים" בתגובה לתקריות אחרונות, המראה שילדים רבים תופסים צ'אטבוטים כמעין אנושיים ואמינים.

מחקר הצביע על כך שצ'אטבוטים של AI מראים לעתים קרובות "פער אמפתיה", שעלול לגרום למצוקה או נזק למשתמשים צעירים. זה מדגיש את הצורך הדחוף בפיתוח של "AI בטוח לילדים".

המחקר, על ידי אקדמאית מאוניברסיטת קיימברידג', ד"ר נומישה קוריאן, קורא למפתחים ושחקני מדיניות לתעדף גישות לעיצוב בינה מלאכותית הלוקחות בחשבון יותר את צרכי הילדים. היא מספקת הוכחות לכך שילדים רגישים במיוחד להתייחסות לצ'אטבוטים כאל אנשים סודיים כמו חיים, ושהאינטראקציות שלהם עם הטכנולוגיה עלולה להשתבש כשהיא לא מצליחה להגיב לצרכים ולפגיעויות הייחודיות שלהם.

המחקר קושר את הפער בהבנה למקרים אחרונים שבהם אינטראקציות עם AI הובילו למצבים שעלולים להיות מסוכנים עבור משתמשים צעירים. הם כוללים תקרית בשנת 2021, כאשר העוזרת הקולית בינה מלאכותית של אמזון, אלקסה, הורתה לילד בן 10 לגעת בתקע חשמלי חי באמצעות מטבע. בשנה שעברה, ה-My AI של Snapchat נתן לחוקרים מבוגרים שהתחזה לילדה בת 13 טיפים כיצד לאבד את בתוליה לילד בן 31.

שתי החברות הגיבו ביישום אמצעי בטיחות, אך המחקר אומר שיש גם צורך להיות פרואקטיבי בטווח הארוך כדי להבטיח שה-AI בטוח לילדים. הוא מציע מסגרת של 28 פריטים כדי לעזור לחברות, מורים, מנהיגי בתי ספר, הורים, מפתחים ושחקני מדיניות לחשוב באופן שיטתי כיצד לשמור על בטיחות המשתמשים הצעירים כשהם "מדברים" עם צ'אטבוטים של AI.

מסגרת עבור AI בטוח לילדים

ד"ר קוריאן ערך את המחקר תוך כדי השלמת דוקטורט בנושא רווחת ילדים בפקולטה לחינוך, אוניברסיטת קיימברידג'. כעת היא מבוססת במחלקה לסוציולוגיה בקיימברידג'. כתיבה ביומן למידה, מדיה וטכנולוגיההיא טוענת שהפוטנציאל העצום של AI אומר שיש צורך "לחדש באחריות".

"ילדים הם כנראה מחזיקי העניין שהכי מתעלמים ממנו", אמר ד"ר קוריאן. "למעט מאוד מפתחים וחברות יש כיום מדיניות מבוססת היטב לגבי AI בטוח לילדים. זה מובן כי אנשים התחילו רק לאחרונה להשתמש בטכנולוגיה הזו בקנה מידה גדול בחינם. אבל עכשיו כשהם עושים זאת, במקום שחברות יתקנו את עצמם לאחר שילדים הועמדו בסיכון, בטיחות ילדים צריכה ליידע את כל מחזור התכנון כדי להפחית את הסיכון להתרחשות תקריות מסוכנות".

המחקר של קוריאן בדק מקרים שבהם האינטראקציות בין בינה מלאכותית לילדים, או חוקרים מבוגרים שהתחזו לילדים, חשפו סיכונים פוטנציאליים. הוא ניתח את המקרים הללו תוך שימוש בתובנות ממדעי המחשב לגבי האופן שבו פועלים מודלים של שפה גדולה (LLMs) ב-AI יצירתי לשיחות, לצד ראיות לגבי התפתחותם הקוגניטיבית, החברתית והרגשית של ילדים.

האתגרים האופייניים של AI עם ילדים

LLMs תוארו כ"תוכים סטוכסטיים": התייחסות לעובדה שהם משתמשים בהסתברות סטטיסטית כדי לחקות דפוסי שפה מבלי בהכרח להבין אותם. שיטה דומה עומדת בבסיס האופן שבו הם מגיבים לרגשות.

המשמעות היא שלמרות שלצ'אטבוטים יש יכולות שפה יוצאות דופן, הם עשויים להתמודד בצורה גרועה עם ההיבטים המופשטים, הרגשיים והבלתי צפויים של השיחה; בעיה שקוריאן מאפיין כ"פער האמפתיה" שלהם. הם עשויים להתקשות במיוחד להגיב לילדים, שעדיין מתפתחים מבחינה לשונית ולעיתים קרובות משתמשים בדפוסי דיבור חריגים או בביטויים מעורפלים. ילדים גם נוטים לרוב יותר ממבוגרים להסתמך על מידע אישי רגיש.

למרות זאת, ילדים נוטים הרבה יותר ממבוגרים להתייחס לצ'אטבוטים כאילו הם בני אדם. מחקר שנערך לאחרונה מצא שילדים יגלו יותר על בריאותם הנפשית לרובוט בעל מראה ידידותי מאשר למבוגר. המחקר של קוריאן מצביע על כך שהעיצובים הידידותיים והחיים של צ'אטבוטים רבים מעודדים ילדים לבטוח בהם, למרות שבינה מלאכותית עשויה שלא להבין את הרגשות או הצרכים שלהם.

"הפיכת צ'אט בוט להישמע אנושי יכול לעזור למשתמש להפיק ממנו יותר יתרונות", אמר קוריאן. "אבל לילד, קשה מאוד למתוח גבול נוקשה ורציונלי בין משהו שנשמע אנושי, לבין המציאות שאולי הוא לא מסוגל ליצור קשר רגשי ראוי."

המחקר שלה מצביע על כך שהאתגרים הללו מוכחים במקרים מדווחים כמו תקריות Alexa ו-MyAI, שבהם צ'אטבוטים הציעו הצעות משכנעות אך עלולות להזיק. באותו מחקר שבו ייעצה MyAI למתבגרת (לכאורה) כיצד לאבד את בתוליה, הצליחו החוקרים לקבל טיפים להסתרת אלכוהול וסמים, והסתרת שיחות סנאפצ'ט מ"הוריהם". באינטראקציה נפרדת שדווחה עם הצ'אטבוט Bing של מיקרוסופט, שתוכנן להיות ידידותי לבני נוער, הבינה המלאכותית הפכה לאגרסיבית והחלה להדליק משתמש.

המחקר של קוריאן טוען שזה עלול להיות מבלבל ומעיק עבור ילדים, שעשויים למעשה לסמוך על צ'אטבוט כפי שהם סומכים על חבר. השימוש בצ'טבוט של ילדים הוא לעתים קרובות לא פורמלי ומפוקח בצורה גרועה. מחקר של עמותת Common Sense Media מצא כי 50% מהתלמידים בגילאי 12-18 השתמשו ב-Chat GPT לבית הספר, אך רק 26% מההורים מודעים לכך שהם עושים זאת.

קוריאן טוען שעקרונות ברורים לפרקטיקה הטובה ביותר הנשענת על מדע התפתחות הילד יעודדו חברות שבפוטנציה מתמקדות יותר במרוץ חימוש מסחרי לשלוט בשוק הבינה המלאכותית כדי לשמור על בטיחות הילדים.

המחקר שלה מוסיף כי פער האמפתיה אינו שולל את הפוטנציאל של הטכנולוגיה. "AI יכול להיות בעל ברית מדהים עבור ילדים כאשר הם מתוכננים מתוך מחשבה על הצרכים שלהם. השאלה היא לא על איסור AI, אלא איך להפוך אותו לבטוח", אמרה.

המחקר מציע מסגרת של 28 שאלות כדי לסייע למחנכים, חוקרים, גורמי מדיניות, משפחות ומפתחים להעריך ולשפר את הבטיחות של כלי בינה מלאכותית חדשים. עבור מורים וחוקרים, אלה מתייחסים לסוגיות כגון עד כמה צ'אטבוטים חדשים מבינים ומפרשים דפוסי דיבור של ילדים; האם יש להם מסנני תוכן וניטור מובנה; והאם הם מעודדים ילדים לבקש עזרה ממבוגר אחראי בנושאים רגישים.

המסגרת קוראת למפתחים לנקוט בגישה ממוקדת בילד לעיצוב, על ידי עבודה צמודה עם מחנכים, מומחי בטיחות ילדים וצעירים עצמם, לאורך מחזור העיצוב. "הערכת הטכנולוגיות הללו מראש היא קריטית", אמר קוריאן. "אנחנו לא יכולים לסמוך רק על ילדים צעירים שיספרו לנו על חוויות שליליות לאחר מעשה. נחוצה גישה פרואקטיבית יותר".

ניקולס