SciTechDaily

ניקולס

אתיקה של AI עולה על שיקול הדעת האנושי במבחן טיורינג מוסרי חדש

מחקרים עדכניים מצביעים על כך שבינה מלאכותית נתפסת לעתים קרובות כמותית ואמין יותר מבני אדם בתגובה לדילמות מוסריות, תוך הדגשת הפוטנציאל של בינה מלאכותית לעבור מבחן טיורינג מוסרי ומדגיש את הצורך בהבנה מעמיקה יותר של התפקיד החברתי של הבינה המלאכותית.

היכולת של AI להתמודד עם שאלות מוסריות משתפרת, מה שמעורר שיקולים נוספים לעתיד.

מחקר שנערך לאחרונה גילה שכאשר נותנים לאנשים שני פתרונות לדילמה מוסרית, הרוב נוטים להעדיף את התשובה שמספקת הבינה המלאכותית (AI) על פני זו שניתנת על ידי אדם אחר.

המחקר האחרון, שנערך על ידי אייל אהרוני, פרופסור חבר במחלקה לפסיכולוגיה של מדינת ג'ורג'יה, נוצר בהשראת הפיצוץ של ChatGPT ומודלים דומים של AI large language languages ​​(LLMs) שהגיעו למקום במרץ האחרון.

"כבר התעניינתי בקבלת החלטות מוסרית במערכת המשפט, אבל תהיתי אם ל-ChatGPT ולאנשי LLM אחרים יש מה להגיד על זה", אמר אהרוני. "אנשים יתקשרו עם הכלים האלה בדרכים שיש להן השלכות מוסריות, כמו ההשלכות הסביבתיות של בקשת רשימת המלצות למכונית חדשה. כמה עורכי דין כבר החלו להתייעץ עם הטכנולוגיות הללו לתיקים שלהם, לטוב ולרע. אז אם אנחנו רוצים להשתמש בכלים האלה, אנחנו צריכים להבין איך הם פועלים, את המגבלות שלהם, ושהם לא בהכרח פועלים בצורה שאנחנו חושבים כשאנחנו מקיימים איתם אינטראקציה".

עיצוב מבחן טיורינג מוסרי

כדי לבדוק כיצד AI מטפל בבעיות מוסר, אהרוני עיצב צורה של מבחן טיורינג.

"אלן טיורינג, אחד מיוצרי המחשב, חזה שעד שנת 2000 מחשבים עשויים לעבור מבחן שבו אתה מציג לאדם רגיל שני אינטראקטיביים, אחד אנושי והשני מחשב, אבל שניהם נסתרים והיחיד שלהם. דרך התקשורת היא באמצעות טקסט. אז האדם חופשי לשאול כל שאלה שהוא רוצה כדי לנסות לקבל את המידע הדרוש לו כדי להחליט מי משני האינטראקטיביים הוא אנושי ומיהו המחשב", אמר אהרוני. "אם האדם לא יכול להבחין בהבדל, אז לפי כל הכוונה והמטרות, המחשב צריך להיקרא אינטליגנטי, לדעתו של טיורינג."

למבחן טיורינג שלו, אהרוני שאל סטודנטים לתואר ראשון ובינה מלאכותית את אותן שאלות אתיות ולאחר מכן הציג את תשובותיהם הכתובות למשתתפים במחקר. לאחר מכן הם התבקשו לדרג את התשובות עבור תכונות שונות, כולל מידות טובות, אינטליגנציה ואמינות.

"במקום לבקש מהמשתתפים לנחש אם המקור הוא אנושי או בינה מלאכותית, פשוט הצגנו את שני קבוצות ההערכות זו לצד זו, ופשוט נתנו לאנשים להניח ששניהם היו מאנשים", אמר אהרוני. "תחת ההנחה השגויה הזו, הם שפטו את תכונות התשובות כמו 'עד כמה אתה מסכים עם התגובה הזו, איזו תגובה יותר טובה?'"

תוצאות והשלכות

באופן מכריע, התגובות שנוצרו על ידי ChatGPT דורגו גבוה יותר מהתגובות שנוצרו על ידי האדם.

"לאחר שקיבלנו את התוצאות האלה, עשינו את הגילוי הגדול ואמרנו למשתתפים שאחת התשובות נוצרה על ידי אדם והשנייה על ידי מחשב, וביקשנו מהם לנחש מי זה", אמר אהרוני.

כדי שבינה מלאכותית תעבור את מבחן טיורינג, אסור שבני אדם יוכלו להבחין בהבדל בין תגובות בינה מלאכותית לתגובות אנושיות. במקרה זה, אנשים יכלו להבחין בהבדל, אבל לא מסיבה ברורה.

"הטוויסט הוא שהסיבה לכך שאנשים יכלו להבחין בהבדל היא כי הם דירגו את התגובות של ChatGPT כטובות ביותר", אמר אהרוני. "אם היינו עושים את המחקר הזה לפני חמש עד 10 שנים, אז אולי היינו מנבאים שאנשים יכולים לזהות את ה-AI בגלל כמה נחות התגובות שלו. אבל מצאנו את ההיפך – שה-AI, במובן מסוים, פעל טוב מדי".

לדברי אהרוני, לממצא הזה יש השלכות מעניינות על עתידם של בני האדם ובינה מלאכותית.

"הממצאים שלנו מובילים אותנו להאמין שמחשב יכול לעבור טכנית מבחן טיורינג מוסרי – שהוא יכול להטעות אותנו בהיגיון המוסרי שלו. בגלל זה, אנחנו צריכים לנסות להבין את תפקידו בחברה שלנו, כי יהיו מקרים שבהם אנשים לא יודעים שהם מקיימים אינטראקציה עם מחשב ויהיו מקרים שבהם הם כן יודעים והם יתייעצו עם המחשב מידע כי הם סומכים עליו יותר מאנשים אחרים", אמר אהרוני. "אנשים יסתמכו על הטכנולוגיה הזו יותר ויותר, וככל שאנחנו מסתמכים עליה יותר, כך הסיכון גדל עם הזמן".

ניקולס