האם לרובוטים יש זכות לשתוק? תשאל את מירנדה

מאת פרופסורפרייזר סמפסון, לשעבר נציב מצלמות ביומטריה ומצלמות מעקב בבריטניה

אתה לא צריך להגיד כלום. המשיכה הבלתי נדלית של בידור מבוסס פשע פירושה שהעולם דובר האנגלית מכיר היטב את הזכות לא לומר דבר על מעצר. באנגליה ובוויילס, המילים הן מהזהירות שנכנסה לשימוש לפני למעלה מ-100 שנה אבל בת דודתה האמריקאית הצעירה, מירנדה (מאריזונה נגד מירנדהב-1966) כנראה מוכר יותר. החל מ'יש לך זכות לשתוק', מירנדה הפכה לפועל באכיפת החוק בארה"ב (כמו ב"האם מירנדיזת את קצין הלקוח שלי?"). אי תזכורת לחשודים כראוי על זכויותיהם עלולה להוביל להחרגת ראיות או לזריקת תיקים.

בינה מלאכותית (AI) מייצרת המון שאלות משפטיות לגבי איך היא תשתלב בעולם שלנו - וכןלְהֶפֶך- אחד מהם הוא האם לרובוטים יהיו זכויות. זכות השתיקה הפכה, כפי שציין בית המשפט העליון בארה"ב לפני כמעט 25 שנה, לחלק מהתרבות שלנו ומציעה תובנה לגבי הטיעונים המבוססים על זכויות עבור AI באכיפת החוק.

עורכי דין מכירים את זה כזכות נגד הפללה עצמית וכדי שהפללה עצמית תתרחש צריך שני דברים: פשע (מאיפה באה המילה) וסיכון להרשעה (מאיפה באה האזהרה). עם רובוט אין כרגע אף אחד מהם. זה לא יכול להעיד כעד - נגד עצמו או נגד מישהו אחר - וגם לא יכול להיות נושא להרשעה פלילית. 'לקחת את החמישי' (לשמור על שתיקה טקטית) מעניק לאזרחים מספר זכויות אזרח חיוניות מול המדינה והוראות דומות קיימות בבריטניה. ללא זכויות, רובוט לא יכול לקחת את החמישי מכיוון שאין לו שום דבר בסכנה כשהוא מדבר. כך נראה אז: שאל וענה. אין זכויות. אין סיכון. אין שאלות נוספות.

אבל צריך להיות? שקול שלושה תרחישים. בראשון, בית משפט רוצה נתונים שהרובוט מוחזק במהלך העמדה לדין של בן אדם.  אם האדם שזכויותיו (למשפט הוגן וכו') בסכנה, ניתן לטעון שה-AI לא צריך להישאר שקט ולמעשה יש לוחוֹבָהלתרום כל מידע רלוונטי. אבל אם זה לא מתאים לדבר על זכויות למכונות אז גם להן לא אמורות להיות חובות. הזכויות והחובות הן הדדיות והתוויות לא ממש מתאימות לעולם הבינה המלאכותית. דרך נוספת להסתכל על התרחיש היא שזכויות האזרחשל האדםבניסוי להרחיב לנתונים שבידי ה-AI ובמקרה זה אין לאפשר לו להישאר אילם. זה מתאים לנורמות של בינה מלאכותית וניתנת להסבר מבלי לקחת על עצמה 'חובה' בטכנולוגיה.

שקול אז את התרחיש השני. מחשב עושה שגיאה הרסנית והוא ברשותו הבלעדית של כל המידע הדרוש כדי להבין מה קרה. ישנן דוגמאות רבות לכך שהמחשב שגוי בצורה קטסטרופלית; ככל שקבלת החלטות בינה מלאכותית מתרבה, סביר לצפות הרבה יותר. האינטרס הציבורי עשוי אפוא לדרוש מובנה של 'כנות בתכנון' בכל AI המשמש לפונקציות קריטיות כמו שיטור, אבל איך זה יעבוד ביחס לאחריות של מי שתכננו, מכר והפעיל אותו? יכול להיות שזה מאוד האינטרס של המעצבים האנושיים שלו שה-AI ישמור על שטום כאשר הוא נחקר לאחר שגיאה, ויכנס למצב הגנה מפני כל אשמה שתגיע אליהם. ביצירת הבוטים שלהם, מתכנתים עשויים לשקף את האזהרה של שיימוס הילי: 'מה שתגיד, אל תגיד כלום', אם כי הם מתפרצים בכוונה.מֵידָע מַטעֶהוהשארת עקבות שווא עשויה להיות תכסיס יעיל יותר לקידוד. אחרי הכל, אם רובוט לא יכול להעיד הוא לא במסגרת של עדות שקר, אז מי ישקר?

שקיפות היא חשובה אבל בהכרח יהיו מקרים שבהם האינטרס הציבורי תלוי בכך שה-AI לא ימסור מידע: הביטחון הלאומי הוא המובן מאליו. עיצוב AI לשקיפות וחסינות לאינטרס ציבורי בו זמנית יהיה מאתגר.

ייתכן שנדרשת הודאה בטעות כדי לפטור בני אדם חפים מפשע, אבל המתגיים של נטפליקס יזהו כאן פרק נוסף של דרמה של שוטרים: זה שבו סורק אומלל משתכנע לקחת את הנפילה על הכל. האם ניתן לתכנת את Patsy-AI כך שפשוט יפנה מהאדם (בלולאה או אחרת)?

תרחיש אחרון, בוס פשע חוזר בתשובה מתוודה על הכל בפני 'AI Jesus' שהותקן זה עתה בקפלה של פיטר, לוצרן (עכשיו יש רעיון לעלילה). כיצד יכולים החוקרים לקבל את המידע החשוב הזה? הקדושה היחידה לתקשורת הזו היא חוזית ולא רוחנית, והסאגה הארוכה של הקלטות מכללת בוסטון מראה כיצד היא מסתיימת: רשויות אכיפת החוק בארה"ב/בריטניה כנראה יקבלו את ברכת בית המשפט - אם לא של הכנסייה - כשהן ילכו אחרי הודאות על פשעים חמורים כגון טרור, ללא קשר לכל נחמדות של שיתוף נתונים. אנחנו צריכים לצפות לאותה גישה לגבי רובוטים.

לא משנה אם יש להם זכויות כלשהן, בוטים מתוכנתים כהלכה יכירו את החוק ולא יזדקקו לעורך דין. הם יידעו שכל דבר שנאמר עלול לשמש נגד אחרים. אולי שאלת בינה מלאכותית טובה יותר לאכיפת החוק ולזכות השתיקה היא האם המשטרה צריכה להשתמש בעוזר בינה מלאכותית כדי להבטיח שחשודים מקבלים אזהרה נכונה, בזמן הנכון, באופן ביקורתי ומדויק, בכל שפה הדרושה. 'היי מירנדה, תקרא להם את הזכויות שלהם'.

על המחבר

פרייזר סמפסון, לשעבר נציב מצלמות ביומטריה ומצלמות מעקב בבריטניה, הוא פרופסור לממשל וביטחון לאומי ב-CENTRIC(המרכז למצוינות בטרור, חוסן, מודיעין וחקר פשע מאורגן) ומנהל לא ביצועי ב-.

נושאי מאמר

||||||