פרויקט DefAI שואף לתת אבטחת גיל ערכת כלים ייעודית משלו לגילוי זיוף עמוק

זיהוי Deep Fake, לא כל כך מזמן שומר על פינת נישה באינטרנט, פרץ לקרב מלכותי אמיתי, בזמן שרמאים שולחים זרם שללתוך הזירה, מדרבן את הופעתם של עוד ועוד מגינים מתחום הביומטרי.

האחרון שצץ מאחורי הווילון הואפרויקט DefAI, שכוונתה מונחת בתקיפות על זיופים עמוקים המהווים איום על מגזר הבטחת הגיל. DefAI היא, במונחים של היאבקות, "יציב": קואליציה של ישויות המתגודדות סביב מערך מטרות משותף - ואנטגוניסטים משותפים.

השמות המפעילים את הפרויקט יהיו מוכרים לכל אחד ב-מגזר: תוכנית הסמכה לבדיקת גיל המבוססת בבריטניה (), שנבחר לאחרונה להפעיל את , מכון המחקר השוויצרי המתמקד בבינה מלאכותית; איגוד ספקי אימות הגיל (), המייצג ספקי הבטחת גיל עצמאיים; וספק הבטחת גיל מבוסס לוזאן, שעומדת בראש הפרויקט.

לפי אתר האינטרנט שלו, קונסורציום זה, במימון משותף על ידי Innosuisse ו-Innovate UK, שואף "לחקור את הסכנות של התקפות מצגות והזרקה על אימות גיל, הגנות אפשריות שאפשר לבנות נגדן, ואת גישות ההערכה והסטנדרטיזציה שהתעשייה תדרוש כדי להעריך את נכונותה לעמוד בפני התקפות כאלה".

התקנות, איומי GenAI גדלים במקביל, דוחפים את הצורך בגילוי

בראיון במייל עםעדכון ביומטרי, ג'ורג' בילינג', דובר של פרויקט DefAI, אומר שזיופים עמוקים מהווים איומים ייחודיים לטכנולוגיות הבטחת גיל ביומטרי.

"עבודה קודמת במרחב הזה התמקדהטכנולוגיות, אבל לא על הבטחת גיל", הוא אומר. "הפרויקט הזה מסתמך על עבודה שכבר נעשתה בהסתכלות על האיום של זיופים עמוקים לטכנולוגיית זיהוי פנים, אבל מתאים ומפתח אותה בהקשר של הבטחת גיל."

בלינג'ה, לשעבר מנהל מדיניות ב- Ofcom שמנהל כעת את חברת הייעוץלהאיר טק, מציין את הזינוק בחקיקה העולמית להסדרת שירותים מקוונים, במיוחד עבור משתמשים צעירים, מבלי לפגוע בזכותם לחיים מקוונים חזקים. בשילוב עם ההופעה וההתפתחות המתמשכת של טכנולוגיות AI שניתן לנצל להונאה, הצורך ביעילותהכלים הולכים וגדלים הן בצד התאימות והן בצד חווית הלקוח.

פרויקט DefAI מאמיןטכנולוגיות (AE) הן חלק מרכזי בפאזל ביצירת אינטרנט "מודע לגיל". מכיוון שניתן לפרוס זיופים עמוקים כהתקפות מצגות או הזרקות המשמשות כדי לעקוף את טכנולוגיית הערכת הגיל, Privately ושותפיה זיהו את הנושא כבעיה של דאגה קיומית עבור מגזר הבטחת הגיל.

"זיהוי של התקפות מתוחכמות כמו מסכות תלת מימד, חלקיות או מציאותיות יותר ויותרהם מאתגרים ומהווים איום רציני על האמינות של מערכות זיהוי פנים", אומר בלינג'ה. "רוב שיטות זיהוי התקפת מצגת (PAD) הזמינות בספרות הרווחת מנסות לפתור את הבעיה עבור מספר מוגבל של מכשירי התקפת מצגות ועל תמונות ספקטרום גלויות."

בינתיים,להציג מידע מזויף ישירות למערכות ביומטריות על ידי חטיפת הפיד הדיגיטלי. "אם ניתן ליצור התקף בזמן אמת, ייתכן שגישת זיהוי חיוניות לא תעבוד על התקפות כאלה בכלל", אומר בלינג'ה, ומסביר שסיווגי התקפות טיפוסיים מתקשים להכליל להתקפות זריקות ושההכשרה אינה מספקת לעתים קרובות.

תחרות Deepfake "משחק מתמיד של חתול ועכבר עם שחקנים גרועים"

כדי להתמודד עם האיום הפוטנציאלי הזה על פרנסתם, DefAI אימצה עמדה של אופטימיות ערנית. בלינג'ה אומר שזה מבוסס על שתי הנחות חשובות המיושמות בתחום של. האחד, "שום דבר אינו בלתי אפשרי לביצוע." ושתיים, "יצוצו וקטורי התקפה חדשים שילמדו מכל מנגנוני הגנה שאנו מפתחים".

"מפתחי פתרונות שנועדו להתמודד עם נזקים מקוונים נמצאים במשחק מתמיד של חתול ועכבר עם שחקנים גרועים, בניסיון לזהות טרנדים ולהגיב אליהם בזמן אמת", אומר בלינג'ה. "יחד עם זאת, עלינו להקפיד על כך שהנתונים שבהם אנו משתמשים עבור פעילויות המחקר והפיתוח שלנו מקורם ומעובדים בצורה אתית, בהתאם- תוך תחרות עם שחקנים שיש להם פחות קפדנות בהקשר זה".

DefAI, אם כן, שואפת לחפור עמוק בשאלה אילו סוגים של וקטורי תקיפה צפויים כיום לשמש למיקוד טכנולוגיות הערכת גיל ביומטריות? מציאת תשובה משמעה הוצאת סוגים שונים של התקפות, איסוף ראיות על התקפות שכבר התרחשו, וחיתוך מרחב מוגדר יותר להערכת גיל בסך הכל.נוֹף.

לקונסורציום אין הרבה זמן לבצע: הפרויקט אמור להסתיים בקיץ 2025. בשלב זה, אומר בלינג'ה, באופן פרטי היה צריך לשלב הגנות מתקדמות של מצגת והתקפת הזרקה במוצר שלהם, כאשר Ididap מספקת תמיכה במחקר ו-ACCS מעריך את האפקטיביות . לבסוף, AVPA תפיק ותשתף את חבריה דו"ח המתאר שיטות עבודה והנחיות מומלצות עבורבהתמודדות עם התקפות מזויפות עמוקות שממשיכות להגיע.

נושאי מאמר

||||||||||