בינה מלאכותית מגיעה למשטרה - אחריות באה איתה

מאת פרופסורפרייזר סמפסון, לשעבר נציב מצלמות ביומטריה ומצלמות מעקב בבריטניה

אחריות עוסקת באנשים עם כוח שמשתמשים בו כראוי, ובמקום שבו האנשים האלה הם המשטרה, השימוש שלהם בכוח יכול להיות בעל השלכות עמוקות. אם כוחם מוגבר על ידי טכנולוגיה, האחריות משתרעת על השימוש בה. בשיטור, טכנולוגיה מתקדמת מגיעה עם אחריות מתקדמת.

ככל שהבינה המלאכותית (AI) מגיעה לשיטור, היא תביא למורכבות רבה יותר במנגנוני האחריות שיהיו שונים במובנים מסוימים ממגזרים אחרים. כל הגופים הציבוריים צריכים להשתמש בטכנולוגיה וכולם צריכים להציב שאלות סטנדרטיות כמו 'מה זה בדיוק עושה ולמה אתה צריך את זה?' אנשים רוצים לדעת מה קורה אם זה משתבש והיכן הם יכולים לברר על כך יותר. זוהי מתן תשובות ברמת הכניסה שבה השיטור אינו שונה מכל שירות ציבורי אחר: עליהם לספק תשובות לשאלות הנוגעות לשימוש שלהם ביכולות טכנולוגיות. בינה מלאכותית מביאה אתגרים חדשים לארגונים במגזר הציבורי, במיוחד כאשר עונים על שאלות 'איך זה עובד', שכן אחריות דורשת שקיפות והבנה. בדומה לרשויות האחרות בציבור, כל שירות משטרה שקנה ​​והטמיע טכנולוגיה שאינה יכולה להסביר, לא ימצא הרבה נחמה בהגנה על קופסה שחורה.

בינה מלאכותית מציגה לרשויות אכיפת החוק דרישות אחריות שונות, תובעניות יותר, בהתאם למה שהם עושים איתה. אם הם משתמשים ב-AI אלמנטרי לפונקציות ניהוליות בלבד, למשטרה תהיה אותה רמת אחריות כמו סוכנויות מדינה אחרות. לדוגמה, אם מפקד משטרה מקומי מחליט בינה מלאכותית להנפיק מדים כדי לחסוך זמן לצוות, זה לא שונה מהותית מהרשות המקומית שעושה זאת. אבל באמצעות יכולת AI עבורפונקציות שיטור מבצעיותיהיה מקרה שימוש אחר לגמרי. הזמנת מגפיים מהמדף אינה זהה להזמנת מגפיים ברחוב. כאשר נעשה שימוש בטכנולוגיה התומכת בינה מלאכותית למטרות אכיפת חוק כגון זיהוי ביומטרי מרחוק ומעקב סמוי, ההקשר מגביר את ההקדמה והמשטרה צריכה לצפות רמות עמוקות יותר של אחריות. אמנם זה נכון שברגע שנתחיל לדבר על אלגוריתמים מסקנתיים שמחשבים את הגיל, מצב הרוח או הגזע שלך, ההימור הוא הרבה יותר גבוה מי שמשתמש בזה, אבל אחריות ברמת בינה מלאכותית בשיטור תצטרך לתת מענה לסיכונים ולדרישות הספציפיות. הם יצטרכו לשקף את החידודים המשפטיים (כגון חוק הבינה המלאכותית של האיחוד האירופי) ולחזק את אמצעי ההגנה הדרושים.

השיטור מגיע לבינה מלאכותית עם רקורד חזק של אחריות על אימוץ טכנולוגיה חדשנית בבריטניה. ביומטריה, מבחני נשימה ווידאו לבוש גוף הם דוגמאות. מה מייחד AI? שני דברים: חידוש והשהייה. בינה כללית מלאכותית (AGI) מביאה שיקולים קיומיים, וכאשר אנו מתמודדים עם אתגר קיומי, אנו נוטים להאמין במה שהביא אותנו עד כה. אבל לא היינו כאן בעבר ועם AGI לא תהיה לנו נוחות של היכרות. יכולת טכנולוגית יוצאת דופן מגיעה במהירות, ואם אנחנו מתכוונים לסמוך עליה למטרות אכיפת חוק, בינה מלאכותית תצטרך להביא עמה אחריות משובצת. בעוד שאחריות המשטרה תמיד הייתה פחות על קבלת התשובה ויותר על קיוםאֶלתשובה, יכולת AI תהיה בסדר שונה מאוד מזו של כל טכנולוגיה קודמת. רתימת הפוטנציאל שלו פירושו הנדסה מחדש של מודלים מסורתיים של מתן תשובות. המשטרה צריכה להתכונן לענות על השימוש שלה ב-AI וגם עבורלֹאשימוש בו בנסיבות שבהן הוא מציע אפשרות טקטית זמינה ולגיטימית במניעה ופתרון פשע ושמירה על בטיחות האנשים.

בהיותה רב-פונקציונלית אינסופית, יכולת התומכת בינה מלאכותית מובטחת כמעט מעבר לתוכנית המקורית שלה. יכולת AI חד-תכליתית היא אוקסימורון. עם טכנולוגיה במצב בטא כמעט תמידי, AI תציע יישומים רחבים יותר מתמיד. זו אחת מנקודות החוזק של AI. זו גם המקור של 'זחילת פונקציות' שיכולה להשאיר גיוון לגיטימי להיראות לא הגיוני.

כפי שעשה משרד המשפטים האמריקאי, בינה מלאכותית מגיעה למשטרה עם פוטנציאל לשנות את אכיפת החוק, אך עלינו לסנכרן חדשנות עם ביטחון. ביקורת אפקטיבית - פנימית וחיצונית - היא חובה והיעילות תיקבע על ידי מבני אימות והבטחה עצמאיים, יחד עם מנגנונים להתערבות בזמן, שיפור ושיפוי.

כשהיא חמושה ביכולת משופרת לעשות את מה שלא היה ידוע בעבר, המשטרה תצטרך לומר יותר ויותר "רק בגלל שאנחנו יכולים לא אומר שאנחנו כן". כדי לעשות זאת בצורה משכנעת הם יצטרכו אחריות מוטבעת. במילים אחרות, כמה שיותר המשטרההָיָה יָכוֹללעשות עם AI, כך יהיה להם חשוב יותר להראות מה הםלֹא(בכל זאת) לעשות עם זה, במיוחד בבריטניה מכיוון שהמודל שלנו לשיטור מבוסס על הסכמה.

לשם כך, מרכז המצוינות בטרור, חוסן, מודיעין וחקר פשע מאורגן (CENTRIC) עובד עם Innovate UK Business Connect, מרכז החוסן העסקי של צפון מזרח ומשטרת המטרופולין כדי לתכנן מנגנונים מעשיים וכלי תוכנה להעריך וליישם יישומי AI עבור שיטור (פרויקט AIPAS).

בינה מלאכותית מציעה פוטנציאל שאין לעמוד בפניו לשמירה על החברה. האיזון בין האפשרי כעת לבין חששות וציפיות לגבי השימוש של המדינה ב-AI יהיה מורכב מבחינה דינמית - יותר גירוסקופ מאשר נדנדה. בהתחשב בתלות ההדדית שלה ובאי-מנוחה שלה, אחריות על בינה מלאכותית עשויה להיות בקרוב המקור האולטימטיבי לאמון הציבור והביטחון במשטרה.

על המחבר

פרייזר סמפסון, לשעבר נציב מצלמות ביומטריה ומצלמות מעקב בבריטניה, הוא פרופסור לממשל וביטחון לאומי ב-CENTRIC(המרכז למצוינות בטרור, חוסן, מודיעין וחקר פשע מאורגן) ומנהל לא ביצועי ב-.

נושאי מאמר

||||||