מאת פרופסורפרייזר סמפסון, לשעבר נציב מצלמות ביומטריה ומצלמות מעקב בבריטניה
הנובע ישירות מעטו של הנשיא, הצו המבצעי (EO) הוא צורה מאוד אינדיבידואלית של עשיית חוק. היה אפילו שובר קופות הוליוודי שנקרא על שם המכשיר המשפטי החזק הזה שאין לו מקבילה בבריטניה (אף אחד לא הולך לעשות סרט בשם הממשל הדיגיטלי (גילוי מידע) (שירותי אימות זהות) (תיקון) תקנות 2024) .
אם היום הראשון של ממשל טראמפ יעמוד בחיוב שלו, ההכרזה הבאה על EOs תגיע בקול תרועה רמה אבל זו שהקהילה הביומטרית צריכה לפקוח אוזניים עבורה היא #14074 המושתק משהו.
הוצא על ידי הנשיא ביידן במאי 2022, צו ביצוע 14074 נועד לקדם שיטור יעיל ואחראי ולשפר את אמון הציבור ובטיחותו. דו"ח משותף של הסוכנות הפדרלית שפורסם בחודש שעבר סוקר כיצד טכנולוגיות ביומטריות מועסקות על ידי כל גופי אכיפת החוק ברחבי ארצות הברית תחת תנאיו של אותו EO. הדו"ח מציג ניתוח מפורט של דעות מחזיקי עניין על ביומטריה פדרלית ומערכת של 'שיטות עבודה מומלצות' לטכנולוגיית זיהוי פנים (FRT) בשיטור.
מלווה את שני המסמכים היא פזמון מרכזי: אחריות. לבריטניה אולי אין פקודות ביצוע, אבל היא מאוד שותפה לחלק מהאתגרים הביומטריים שנקבעו בדוח ואת הצורך באחריות בתחום היכולות המונעות בינה מלאכותית במשטרה. למרות ההבדלים החוקתיים, מפקדי המשטרה בשתי המדינות מאוחדים כעת בשתי שאלות מעשיות: "איך נראית אחריות לביומטריה של AI?" ו"איך אנחנו משיגים את זה?"
מהצד הבריטי, החוקרים מאמינים שיש להם תשובות לשאלות הללו, תשובות שיעניינו את מחברי הדו"ח הפדרלי. בהסתמך על הניסיון הקולקטיבי של שוטרים ואנשי צוות, וסקר אזרחים של למעלה מ-6000 אנשים ממדינות ברחבי אירופה, צפון אמריקה ומחוצה לה, פרויקט משטרתי ואקדמי משותף(AIPAS)זיהה את האינדיקטורים של אחריותיות בטכנולוגיה מונעת בינה מלאכותית. הצוות גם בנה כלי תוכנה שיסייע לגופי שיטור לבקר את המדיניות והפרקטיקות שלהם מול עקרונות אלה.
בשילוב הנושאים מהדוח הפדרלי המשותף ו-AiPAS, יסודות האחריות לביומטריה מונעת בינה מלאכותית באכיפת החוק נראים בערך כך:
חוּקִיוּת(פעל לפי החוק).כל ההיבטים של ביומטריה של AI חייבים להיות חוקיים, והנטל להוכיח שהם מוטל על המשטרה. זה כולל ציות לחוקים ספציפיים לבינה מלאכותית (כגון חוק הבינה המלאכותית של האיחוד האירופי), EOs ומדיניות ארגונית. החוקיות חלה בכל מצב. השאר הם חוקיותפְּלוּס.
שְׁלֵמוּת(לא תשאיר שום דבר בחוץ).ביומטריה מונעת בינה מלאכותית היא תוכניות מרובות שותפים והאחריות צריכה לכסות הכל מרכש ועד פריסה, כולל שותפים וקבלני משנה. היכן שיש פערים, ההגנה והקידום של זכויות וחירויות יסוד צריכים לנצח.
הכללות(אל תשאיר אף אחד בחוץ).עירבו את כל בעלי העניין המעורבים במערכת הבינה המלאכותית ומושפעים ממנה. בנה גיוון והפחת את פוטנציאל ההטיה עם השתתפות רחבה של בעלי עניין, יצירת מדיניות, סקירת פריסה וחיפוש נקודות למידה.
שְׁקִיפוּת(להיות פתוח).שקיפות מקדמת את אמון הציבור ואמון, ומאפשרת לנפגעים לעשות שיפוט מושכל. אחריות דורשת מידע ברור, משמעותי מדויק ובזמן (CMAT) על מערכות ביומטריה של AI (בכפוף לרגישויות תפעוליות). הראה מדוע השימוש במערכת הכרחי ופרופורציונלי, תוך הדגשת סיכונים צפויים.
חוסר משוא פנים(להעצים עצמאות). גופי אחריות צריכים להיות חסרי פניות ללא ניגוד עניינים. לאחריות חיצונית - בתי משפט ורגולטורים - יש את זה מובנה. מבחינה פנימית, לאנשים המעורבים באחריות לביומטריה של AI צריכים להיות עצמאות ממבנה הניהול הקו של המעורבים בתכנון, בפיתוח ובפריסה שלהם.
הוֹכָחָה(עקבו אחרי הראיות).המשטרה יודעת ללכוד, לנתח ולהציג ראיות. עדויות לאחריות צריכות לשקף את הסטנדרטים של איסוף ראיות מבצעיות במונחים של יושרה, אמינות והמשכיות, המשקפים את ההשפעה של החלטות להשתמש - ולֹא לשימוש - ביומטריה זמינה של AI.
אכיפה ותיקון(תעשה את זה נכון). בלי "אז מה?", אחריות היא נוי. מנגנוני אחריות חייבים לתת לאנשים תרופה יעילה, לרבות מסלולים לתלונה ולאתגר, אכיפה פנימית ותיקון.
יכולת כפייה(תגרום לזה לעבוד).לגופי פיקוח חייבים להיות מנופים כדי שהאחריות תעבוד. יכולת כפייה חיצונית נובעת מתהליכים משפטיים או דמוקרטיים, בעוד שמדיניות פנימית צריכה לאשר פעולה ללא צורך בסמכויות משפטיות.
יכולת הסבר(לתאר, להדגים, לבטל מיסטיקה). הביומטריה של AI חייבת להיות מובן על ידי המשתתפים/קהל. הסבר על המערכת בסביבה טכנית הוא דבר אחד; הפיכתו למובן בשפה לא טכנית כך שהאזרח ונציגיו יוכלו להבין, להשתתף ולאתגר את השימוש בו היא קשה יותר אך חשובה.
קונסטרוקטיביות(שאפו לטוב יותר).אחריות היא יותר מביקורת. השתתפות בונה במטרה משותפת של שיפור, התחשבות בנקודות מבט שונות ואתגר מזמין יגלה כיצד אי הסכמה יכולה להוביל לפתרונות מועילים.
הִתְנַהֲגוּת(תחשיב את עצמך באחריות). הקוד האירופי לאתיקה של המשטרה קובע, "לעתים קרובות ניתן לקבוע את מצבה של דמוקרטיה רק על ידי בחינת התנהלות המשטרה שלה". 'התנהלות' המשטרה תכלול יותר ויותר שימוש בטכנולוגיית בינה מלאכותית, הן אינדיבידואלית והן ארגונית, המשלבת סטנדרטים מקצועיים, ערכים והתנהגויות צפויות המשלבות יושרה ואתיקה.
לְמִידָה(חפש את השיעור).לקדם נכונות לשפר AI מכל הבחינות באמצעות יישום ידע ותובנות (חדשות). החל על העיצוב, השתמשופיקוח על ביומטריה של בינה מלאכותית, למידה כוללת שינוי ושיפור של מערכות, מבנים, פרקטיקות, תהליכים, ידע ומשאבים, כמו גם פיתוח דוקטרינה מקצועית, תקנים ומדיניות.
צוות AiPAS הציע לחלוק את המתודולוגיה, הממצאים וכלי הציות שלהם עם סוכנויות פדרליות משותפות וגם יקשיב בקפידה למוזיקת מצב הרוח מהבית הלבן לאחר ה-20 בינואר.
לא משנה מה יקרה ל-EO 14074, השימוש בביומטריה מונעת בינה מלאכותית באכיפת החוק יחזיק מעמד לאורך כל כולנו. יכולות כמו FRT יקדמו את אפקטיביות המשטרה, יגבירו את אמון הציבור והבטיחות בעולםאִםאנו פועלים תחת דגל האחריות כדי להבטיח את ברכות החירות שלנו. המשך ושיתוף פעולה בין קהילות אכיפת החוק יהוו דוגמה נוספת לטקס נשיאותי חגיגי: מתוך רבים, אחד.
על המחבר
פרייזר סמפסון, לשעבר נציב מצלמות ביומטריה ומצלמות מעקב בבריטניה, הוא פרופסור לממשל וביטחון לאומי ב-CENTRIC(המרכז למצוינות בטרור, חוסן, מודיעין וחקר פשע מאורגן) ומנהל לא ביצועי ב-.
נושאי מאמר
||||||