SciTechDaily

ניקולס

כאשר המדע הבדיוני הופך לעובדת מדע: דילמת הבינה המלאכותית

מדעני AI מובילים מזהירים מהסיכונים המשמעותיים הקשורים להתפתחות המהירה של טכנולוגיות AI בפורום מדיניות. הם מציעים שחברות טכנולוגיה גדולות ומממנים ציבוריים יקדישו לפחות שליש מהתקציבים שלהם להערכת סיכונים והפחתה. הם גם דוגלים בסטנדרטים גלובליים מחמירים למניעת שימוש לרעה בבינה מלאכותית ומדגישים את החשיבות של ממשל יזום כדי לכוון את פיתוח הבינה המלאכותית לעבר תוצאות מועילות ולמנוע אסונות פוטנציאליים. קרדיט: twoday.co.il.com

מומחי בינה מלאכותית ממליצים על השקעה משמעותית בהפחתת סיכוני בינה מלאכותית ובתקנות גלובליות מחמירות יותר כדי למנוע שימוש לרעה ולהנחות פיתוח בינה מלאכותית בבטחה.

חוקרים הזהירו מפני הסיכונים הקיצוניים הקשורים בפיתוח מהיר של טכנולוגיות בינה מלאכותית (AI), אך אין הסכמה כיצד לנהל את הסכנות הללו. בפורום מדיניות, מומחי הבינה המלאכותית המובילים בעולם, יושע בנג'יו ועמיתיו, מנתחים את הסיכונים של קידום טכנולוגיות בינה מלאכותית.

אלה כוללים את ההשפעות החברתיות והכלכליות, שימושים זדוניים ואובדן פוטנציאל של שליטה אנושית על מערכות בינה מלאכותית אוטונומיות. הם מציעים אמצעי ממשל פרואקטיביים ומסתגלים כדי להפחית סיכונים אלה.

המחברים דוחקים בחברות טכנולוגיה גדולות ובמממנים ציבוריים להשקיע יותר, ולהקצות לפחות שליש מהתקציבים שלהם להערכת סיכונים אלו ולהפחתה. הם גם קוראים למוסדות משפטיים ולממשלות גלובליות לאכוף תקנים המונעים שימוש לרעה בינה מלאכותית.

קריאה לפיתוח בינה מלאכותית אחראית

"כדי לכוון את הבינה המלאכותית לעבר תוצאות חיוביות ולהתרחק מאסון, עלינו לכוון מחדש. יש דרך אחראית – אם יש לנו את החוכמה ללכת בה", כותבים המחברים.

הם מדגישים את המירוץ בין חברות טכנולוגיה ברחבי העולם לפתח מערכות AI כלליות שעשויות להתאים או לעלות על יכולות אנושיות בתחומים קריטיים רבים. עם זאת, התקדמות מהירה זו מביאה גם לסיכונים בקנה מידה חברתי שעלולים להחריף עוולות חברתיות, לערער את היציבות החברתית ולאפשר פשעי סייבר בקנה מידה גדול, לוחמה אוטומטית, מניפולציה המונית מותאמת אישית ומעקב נרחב.

בין החששות המודגשים הוא הפוטנציאל לאבד שליטה על מערכות AI אוטונומיות, מה שיהפוך את ההתערבות האנושית ללא יעילה.

סדרי עדיפויות דחופים למחקר בינה מלאכותית

מומחי הבינה המלאכותית טוענים שהאנושות אינה ערוכה כראוי להתמודד עם סיכוני הבינה המלאכותית הפוטנציאליים הללו. הם מציינים כי בהשוואה למאמצים לשפר את יכולות הבינה המלאכותית, מעט מאוד משאבים מושקעים בהבטחת פיתוח ופריסה בטוחה ואתית של טכנולוגיות אלו. כדי להתמודד עם הפער הזה, המחברים מתווים סדרי עדיפויות דחופים למחקר, פיתוח וממשל בינה מלאכותית.

למידע נוסף על מחקר זה, ראה מדעני בינה מלאכותית מזהירים מפני שחרור סיכונים מעבר לשליטת האדם.

ניקולס