SciTechDaily

ניקולס

מהפכה במחקר הרפואי: מדענים מפתחים בינה מלאכותית פורצת דרך לשמירה על פרטיות

חוקרים חידשו שיטת לימוד מכונה המשמרת פרטיות למחקר גנומי, תוך איזון בין פרטיות הנתונים לביצועי מודל AI. הגישה שלהם, תוך שימוש באלגוריתם דשדוש מבוזר, מציגה יעילות ואבטחה משופרים, ומדגישה את הצורך הקריטי בפרטיות בניתוח נתונים ביו-רפואי. קרדיט: 2024 KAUST; הנו הוואנג

צוות מחקר ב-KAUST יצר שיטת למידת מכונה המשתמשת באוסף של אלגוריתמים המתמקדים בשמירה על הפרטיות. גישה זו מתמודדת עם סוגיה קריטית במחקר רפואי: מינוף בינה מלאכותית (AI) כדי לזרז גילויים מנתונים גנומיים מבלי לפגוע בפרטיות הפרט.

"נתוני Omics מכילים בדרך כלל מידע פרטי רב, כגון ביטוי גנים והרכב תאים, שלעיתים קרובות יכול להיות קשור למחלה או למצב בריאותי של אדם", אומר Xin Gao של KAUST. "למודלים של בינה מלאכותית שהוכשרו על הנתונים האלה – במיוחד מודלים של למידה עמוקה – יש פוטנציאל לשמור פרטים פרטיים על אנשים. המיקוד העיקרי שלנו הוא למצוא איזון משופר בין שמירה על פרטיות ואופטימיזציה של ביצועי המודל."

טכניקות מסורתיות לשמירה על הפרטיות

הגישה המסורתית לשמירה על הפרטיות היא הצפנת הנתונים. עם זאת, זה מחייב את הנתונים לפענוח לצורך אימון, מה שמציג תקורה חישובית כבדה. המודל המאומן עדיין שומר על מידע פרטי ולכן ניתן להשתמש בו רק בסביבות מאובטחות.

דרך נוספת לשמור על הפרטיות היא לפרק את הנתונים למנות קטנות יותר ולאמן את המודל בנפרד על כל חבילה באמצעות צוות של אלגוריתמי אימון מקומיים, גישה המכונה אימון מקומי או למידה מאוחדת. עם זאת, כשלעצמה, לגישה זו עדיין יש פוטנציאל להדליף מידע פרטי למודל המאומן. ניתן להשתמש בשיטה הנקראת פרטיות דיפרנציאלית כדי לפרק את הנתונים באופן שמבטיח פרטיות, אבל זה מביא למודל "רועש" שמגביל את התועלת שלו למחקר מדויק מבוסס גנים.

שיפור הפרטיות עם פרטיות דיפרנציאלית

"באמצעות מסגרת הפרטיות הדיפרנציאלית, הוספת מערבל יכולה להשיג ביצועי דגם טובים יותר תוך שמירה על אותה רמה של הגנה על פרטיות; אבל הגישה הקודמת של שימוש במערבב מרכזי של צד שלישי שמציגה פגם אבטחה קריטי בכך שהמערבל עלול להיות לא ישר", אומר Juexiao Zhou, המחבר הראשי של המאמר ודוקטורנט. תלמיד בקבוצה של גאו. "ההתקדמות העיקרית של הגישה שלנו היא השילוב של אלגוריתם דשדוש מבוזר." הוא מסביר שהערבב לא רק פותר את בעיית האמון הזו אלא משיג פשרה טובה יותר בין שמירה על הפרטיות ויכולת המודל, תוך הבטחת הגנה מושלמת על הפרטיות.

הצוות הדגים את גישת למידת המכונה המשמרת את הפרטיות (הנקראת PPML-Omics) על ידי הכשרת שלושה מודלים מייצגים של למידה עמוקה בשלוש משימות מולטי-אומיקה מאתגרות. לא רק ש-PPML-Omics ייצרה מודלים מותאמים ביעילות רבה יותר מגישות אחרות, היא גם הוכיחה את עצמה כחזקה בפני התקפות סייבר מתקדמות.

"חשוב להיות מודעים לכך שמודלים של למידה עמוקה מאומנים בצורה מיומנת הם בעלי יכולת לשמור כמויות משמעותיות של מידע פרטי מנתוני האימון, כמו הגנים האופייניים למטופלים", אומר גאו. "ככל שלמידה עמוקה מיושמת יותר ויותר לניתוח נתונים ביולוגיים וביו-רפואיים, החשיבות של הגנת הפרטיות גדולה מאי פעם."

ניקולס