SciTechDaily

ניקולס

האם רופאי הטלוויזיה האלה אמיתיים? הונאת Deepfake הסבירה

רופאי טלוויזיה פופולריים בבריטניה מתחזים דיגיטלית באמצעות טכנולוגיית Deepfake כדי לאשר באופן כוזב מוצרי בריאות במדיה החברתית, כפי שדווח על ידי ה-BMJ. השימוש המטעה הזה ב-AI כרוך בשיבוט דמויות דיגיטליות על גופים אחרים, מה שגורם להמלצות המזויפות להיראות אמיתיות. קרדיט: twoday.co.il.com

ה-BMJ מדווח כי נעשה שימוש בטכנולוגיית Deepfake ליצירת אישורי הונאה של רופאי טלוויזיה מפורסמים בבריטניה למוצרי בריאות במדיה החברתית, מה שמקשה על המאמצים לזהות ולחסל את הסרטונים המטעים הללו.

כמה מרופאי הטלוויזיה המוכרים ביותר בבריטניה זוכים יותר ויותר ל"זיוף עמוק" בסרטונים כדי למכור מוצרי הונאה במדיה חברתית, מגלה ה-BMJ היום, 18 ביולי.

שמות מהימנים, כולל הילארי ג'ונס, מייקל מוסלי וראנגן צ'אטרג'י, משמשים לקידום מוצרים הטוענים לתיקון לחץ דם גבוה וסוכרת, ולמכירת מוצרי גומי קנבוס, מסביר העיתונאי כריס סטוקל-ווקר.

Deepfaking הוא השימוש של בינה מלאכותית (AI) למפות דמיון דיגיטלי של בן אנוש בחיים האמיתיים על גבי סרטון של גוף שאינו שלהם. קשה להשיג ראיות מהימנות על כמה זה משכנע, אבל מחקר שנערך לאחרונה מצביע על כך שעד מחצית מכל האנשים שהראו זיופים עמוקים המדברים על נושאים מדעיים אינם יכולים להבחין ביניהם מסרטונים אותנטיים.

הכלכלה של מידע שגוי Deepfake

ג'ון קורמק, רופא בדימוס שבסיסו באסקס, עבד איתו ה-BMJ כדי לנסות וללכוד תחושה של קנה המידה של מה שמכונה רופאים מזויפים עמוקים במדיה החברתית.

"השורה התחתונה היא שהרבה יותר זול לבזבז את הכסף שלך על יצירת סרטונים מאשר על מחקר והמצאת מוצרים חדשים ולהוציא אותם לשוק בדרך המקובלת", הוא אומר.

שלל התכנים המפוקפקים ברשתות החברתיות ששותפות לדמויות של רופאים וידוענים פופולריים היא תוצאה בלתי נמנעת של מהפכת הבינה המלאכותית שאנו חיים בה כעת, אומר הנרי אג'דר, מומחה לטכנולוגיית זיוף עמוק. "הדמוקרטיזציה המהירה של כלי AI נגישים לשיבוט קול ויצירת אווטרים שינתה את נוף ההונאה וההתחזות."

נלחם בניצול Deepfake

"הייתה עלייה משמעותית בפעילות מהסוג הזה", אומר ג'ונס, שמעסיק מומחה מדיה חברתית כדי לחפש באינטרנט סרטונים מזויפים עמוקים שמציגים מצג שווא של דעותיו ומנסה להוריד אותם. "גם אם כן, הם פשוט צצים למחרת תחת שם אחר."

דובר של Meta, החברה שמחזיקה גם בפייסבוק וגם באינסטגרם, שבה התארחו רבים מהסרטונים שמצא קורמק, סיפר ה-BMJ: "אנחנו נחקור את הדוגמאות שהודגשו על ידי ה-British Medical Journal. אנו לא מתירים תוכן שמרמה בכוונה או מבקש להונות אחרים, ואנו פועלים כל הזמן לשיפור הזיהוי והאכיפה. אנו ממליצים לכל מי שרואה תוכן שעלול להפר את המדיניות שלנו לדווח על כך כדי שנוכל לחקור ולנקוט פעולה".

אתגרים ופתרונות בזיהוי Deepfakes

Deepfakes פועלים על ידי טרפת רגשות של אנשים, כותבת סטוקל-ווקר, וכאשר מדובר במוצרים רפואיים, הקשר הרגשי עם האדם שמספר לכם על תרופת הפלא או המוצר הרפואי המפואר משנה על אחת כמה וכמה.

מישהו שאתה לא מכיר שמנסה למכור לך את סגולותיו של טיפול מסוים עלול לעורר חשדות. אבל אם הם מישהו שראית בעבר במדיה החברתית, בטלוויזיה או ברדיו, סביר יותר שתאמין למה שהם אומרים.

איתור זיופים עמוקים יכול להיות גם מסובך, אומר אג'דר, מכיוון שהטכנולוגיה השתפרה. "קשה לכמת עד כמה הצורה החדשה הזו של הונאה עמוקה מזויפת יעילה, אבל הנפח ההולך וגדל של סרטונים שמסתובבים כעת יצביע על כך ששחקנים רעים זוכים להצלחה מסוימת."

לאלו שדמויותיהם נכללות בשיתוף, לכאורה יש מעט מאוד שהם יכולים לעשות בנידון, אבל Stokel-Walker מציעה כמה טיפים מה לעשות אם אתה מוצא זיוף עמוק. לדוגמה, בדוק היטב את התוכן כדי לוודא שהחשדות שלך מבוססים, ואז השאר הערה, תוך ספק באמיתותה. השתמש בכלי הדיווח המובנים של הפלטפורמה כדי להביע את החששות שלך, ולבסוף דווח על האדם או החשבון ששיתפו את הפוסט.

ניקולס