חובהבְּדִיקָההמאמצים של מינהל אכיפת הסמים (DEA) והבולשת הפדרלית (FBI) לשלב בינה מלאכותית כגון זיהוי פנים ביומטרי וטכנולוגיה מתפתחת אחרת מעלה פרטיות משמעותיתחששות המחייבים בחינה מדוקדקת של היוזמות של שתי הסוכנויות.
דו"ח הביקורת בן 34 העמודים - אשר הוטל על ידי חוק הסמכות ההגנה הלאומית לשנת 2023 להתבצע על ידי המפקח הכללי של משרד המשפטים (DOJ) (IG) - מצא שהשילוב של ה-FBI וה-DEA עם AI טומנת בחובה דילמות אתיות, אי התאמה רגולטורית והשפעות אפשריות על חירויות הפרט.
ה-IG אמר שהשילוב של AI בפעולות ה-DEA וה-FBI טומן בחובו הבטחה לשיפור יכולות המודיעין, אך הוא גם מביא סיכונים חסרי תקדים לפרטיות ולזכויות האזרח.
יוזמות הבינה המלאכותיות המתהוות של שתי הסוכנויות, כפי שתוארו בביקורת של ה-IG, ממחישות את המתח בין הקידמה הטכנולוגית לבין השמירה על חירויות הפרט. בזמן שה-FBI וה-DEA מנווטים את האתגרים הללו, עליהם לתת עדיפות לשקיפות, אחריות וממשל אתי כדי להבטיח שה-AI משרת את טובת הציבור מבלי לפגוע בזכויות היסוד.
בעוד שה-DEA וה-FBI החלו לשלב בינה מלאכותית וזיהוי ביומטרי בתהליכי איסוף וניתוח המודיעין שלהם, דו"ח ה-IG מדגיש ששתי הסוכנויות נמצאות בשלבים התחלתיים של שילוב זה ומתמודדות עם אתגרים מנהליים, טכניים ומדיניות. קשיים אלה לא רק מאטים את האינטגרציה של AI, אלא הם גם מחריפים את החששות לגבי הבטחת השימוש האתי ב-AI, במיוחד בנוגע לפרטיות וחירויות האזרח.
אחד האתגרים העיקריים הוא חוסר השקיפות הקשורים למוצרי AI זמינים מסחרית. דו"ח ה-IG ציין כי ספקים מרבים להטמיע יכולות בינה מלאכותית בתוך התוכנה שלהם, ויוצרים תרחיש של קופסה שחורה שבו משתמשים, כולל ה-FBI, חסרים ראות לגבי אופן פעולת האלגוריתמים או קבלת החלטות. היעדר כתב חומרי תוכנה (SBOM) - רשימה מקיפה של רכיבי תוכנה - מחמיר את הבעיה, ומעלה חששות משמעותיים בפרטיות שכן נתונים רגישים יכולים להיות מעובדים על ידי אלגוריתמים אטומים, שעלולים להוביל לשימוש לרעה או מעקב לא מורשה.
"אנשי ה-FBI... ציינו שלרוב מוצרי AI הזמינים מסחרית אין שקיפות מספקת של רכיבי התוכנה שלהם", אמר ה-IG, וציין כי "אין דרך ל-FBI לדעת בוודאות אם יכולות בינה מלאכותיות כאלה נמצאות במוצר, אלא אם כן ה-FBI מקבל SBOM."
ה-IG אמר כי "SBOMs נשארים נדירים" וכי "כלי AI משובצים שלא נחשפו עלולים לגרום לכך שאנשי ה-FBI ישתמשו ביכולות בינה מלאכותית מבלי לדעת וללא שכלים כאלה היו נתונים לממשל הבינה המלאכותית של ה-FBI. בנוסף, פקיד FBI הביע דאגה מהעובדה שספקים אינם נדרשים לבצע בדיקות עצמאיות של המוצרים שלהם כדי לאמת את הדיוק של מודלים נתונים המשמשים ביכולות AI משובצות.
מועצת האתיקה של ה-FBI (AIEC), שהוקמה כדי להבטיח ציות לעקרונות אתיים ולחוקים פדרליים, מתמודדת עם פיגור משמעותי בבדיקה ואישור של מקרי שימוש בבינה מלאכותית. צבר זה, שעמד בממוצע על 170 ימים לביקורות ממתינות בשנת 2024, מדגיש חוסר יעילות מערכתי שעלול לעכב אמצעי הגנה מפני הפרות פרטיות. יתרה מזאת, בעוד שהמסגרת האתית של AIEC מתיישרת עם הנחיות משרד מנהל המודיעין הלאומי (ODNI), נוף המדיניות המתפתח יוצר אי ודאות, מעכב החלטות קריטיות ומשאיר את הסיכון פתוח של אי ציות לתקנות המתפתחות.
פריסת הבינה המלאכותית בהקשר של ביטחון לאומי מעלה גם סוגיות חריפות של זכויות אזרח, במיוחד בנוגע לפוטנציאל להטיה גזעית או אתנית. כלים כמו, הנבדקים לעתים קרובות על נטייתם לזהות שגוי אנשים מקהילות מודרות, מדגימים את הסיכונים הללו. ה-FBI וה-DEA חייבים לנווט את המנדט הכפול של ביטחון לאומי ואכיפת חוק, כלומר יישומי בינה מלאכותית יפעלו לרוב בהקשרים עם סיכון גבוה לחירויות אישיות.
למרות שה-FBI יזם צעדים לתיעוד מקרי שימוש בבינה מלאכותית ופיתוח מדיניות ממשל כוללת, השילוב הלא שלם של שיקולים אתיים בתהליכי עבודה תפעוליים מהווה סיכונים. ללא מנגנוני פיקוח חזקים ושקיפות, מערכות בינה מלאכותית עשויות לאפשר מעקב לא מוצדק, לשחוק את אמון הציבור ולהפר את ההגנות החוקתיות מפני חיפושים ותפיסות בלתי סבירות.
השימוש של ה-DEA ב-AI מסבך עוד יותר את התמונה. עם כלי הבינה המלאכותית הבלעדי שלו שמקורו במקור חיצוני, ה-DEA מסתמך במידה רבה על מרכיבים אחרים של קהילת המודיעין של ארה"ב, מה שמגביל את השליטה שלו על העיצוב והיישום של הכלי. הסתמכות כזו לא רק מגבילה אחריות, אלא היא גם חושפת את פעולות ה-DEA לסיכונים הטמונים במערכות בינה מלאכותית של צד שלישי, כולל הטיות שעלולות למקד באופן לא הוגן לקבוצות ספציפיות.
שתי הסוכנויות ציינו את אתגרי הגיוס והשימור כמחסומים משמעותיים לאימוץ בינה מלאכותית באחריות. ה-IG אמר כי חוסר היכולת למשוך כישרונות טכניים, במיוחד אנשים המצוידים לטפל בהשלכות האתיות והמשפטיות של AI, משאיר פערים ביכולתן של הסוכנויות להפחית סיכונים. בנוסף, "אנשים רבים עם הכישורים הטכניים הנכונים אינם מסוגלים לעבור חקירות רקע", דיווח ה-IG.
מגבלות תקציביות מעכבות עוד יותר את הרכישה והבדיקה העצמאית של כלי בינה מלאכותית, ומגבירות את ההסתמכות על מערכות זמינות מסחריות עם הטיות או מגבלות לא ידועות.
מה-IG נמסר כי אנשי ה-FBI ציינו כי "זה יכול להיות מאתגר לבדוק ולפרוס מערכת חדשה ללא תקציב מחקר ופיתוח מכיוון שקשה להצדיק שימוש בכספים מוגבלים לבדיקת טכנולוגיה לא מוכחת כאשר פעולות התומכות במשימה הן כה קריטיות. זאת בניגוד לסוכנויות ביון אחרות, שלפי גורם ב-FBI יש להן תקציבי מחקר ופיתוח המאפשרים להן לבדוק ולפרוס טכנולוגיה חדשה. אנשי ה-FBI הגישו הצעות ל-ODNI כאשר מימון פנימי לא היה זמין, אך מקורות המימון הללו אינם מובטחים".
מודרניזציה של תשתיות ה-IT היא מכשול קריטי נוסף. מערכות מדור קודם פוגעות באינטגרציה של AI, וארכיטקטורות נתונים לא נאותות מחמירות בעיות הקשורות לאיכות נתונים ואבטחה. מערכות נתונים המנוהלות בצורה לקויה עלולות לחשוף בטעות מידע אישי רגיש להפרות או שימוש לרעה, ולסכן עוד יותר את הפרטיות ואת זכויות האזרח.
"בשל משאבים מוגבלים והיעדר תכנון אסטרטגי, סוכנויות פדרליות נאבקות לעתים קרובות להבטיח שארכיטקטורת הנתונים תישאר מודרנית ובמקום זאת משתמשות במערכות מידע מיושנות, גם כאשר מערכות אלו עצמן דורשות משאבים משמעותיים לתחזוקה", נכתב בדו"ח של ה-IG. "מערכות כאלה יכולות לסכל את המעבר ל-AI מכיוון שהן עשויות להיות קשות לשילוב עם טכנולוגיות חדשות יותר, חסרות תכונות חיוניות למשימות מדעי הנתונים המודרניות, מתקשות להתמודד עם מערכי הנתונים הגדולים והמורכבים של היום, ולעתים קרובות דורשות יותר זמן ומאמץ ידני מהמשתמשים שלהן. אנשי ה-FBI ציינו גם כי התנועה של נתונים וכלי בינה מלאכותית על פני רמות סיווג היא מסובכת ודורשת מימון נוסף לטיפול".
"בנוסף", אמר ה-IG, "לכידת נתונים איכותיים היא בסיסית כדי לאפשר לארגון להשתמש בנתונים לקבלת החלטות על ידי הטמעת תהליכים כדי להבטיח שהנתונים הנכנסים מדויקים, עקביים ורלוונטיים.
ה-IG הדגיש מספר פעולות שה-FBI וה-DEA יכולים לנקוט כדי להתמודד עם החששות שהעלתה הביקורת. ראשית, שתי הסוכנויות צריכות להעריך כיצד ניתן לשלב AI בצורה אתית ויעילה כדי לשפר את איסוף המודיעין תוך הגנה על זכויות הפרט. כמו כן, חיזוק AIEC ומנגנונים דומים עם משאבים מספיקים להתמודדות עם אימוץ AI מוגבר הוא קריטי לשמירה על סטנדרטים אתיים.
חובת SBOM ובדיקות עצמאיות עבור כל כלי הבינה המלאכותית יבטיחו שה-FBI וה-DEA - וסוכנויות אחרות - יוכלו לאמת את הבטיחות והחוקיות של היישומים שלהם. כמו כן, ה-IG המליצה ליישם הערכות שגרתיות כדי להעריך את ההשפעה הפוטנציאלית של כלי בינה מלאכותית על חירויות האזרח, במיוחד בהקשרי מעקב.
נושאי מאמר
|||||||||