המיוחלדִוּוּחַמכוח המשימה של הבית הדו-מפלגתי בארה"ב, בן כמעט שנה בנושא בינה מלאכותית, צריך לשמש קריאה לפעולה להתמודדות עם אתגרי הפרטיות וזכויות האזרח הדוחקים שמציבה הבינה המלאכותית. הדו"ח, שנועד להוות מתווה לפעולות עתידיות שהקונגרס יכול לנקוט כדי לטפל בהתקדמות בטכנולוגיות AI, מדגיש את הדאגות המרכזיות לפרטיות וזכויות האזרח הקשורות ישירות לפיתוח המהיר והאימוץ של מערכות בינה מלאכותית.
"ל-AI יש פוטנציאל אדיר לשנות את החברה ואת הכלכלה שלנו לטובה ולטפל באתגרים לאומיים מורכבים", נכתב בדו"ח בן 273 העמודים, אך הוא גם קובע כי "בינה מלאכותית עשויה להיות מנוצלת לרעה ולהוביל לסוגים שונים של נזק".
הדו"ח מכיל 66 ממצאים מרכזיים ו-89 המלצות.
בעוד שבינה מלאכותית מציעה פוטנציאל טרנספורמטיבי בין מגזרים, הפריסה שלו מעלה חששות משמעותיים לגבי פרטיות נתונים, אפליה, שקיפות ואחריות, כל הנושאים שהם קריטיים שכן ארה"ב מתווה דרך לקראת ממשל בינה מלאכותית אחראית. על ידי מתן עדיפות לנושאים אלה, אומר הדו"ח, ארה"ב יכולה להוביל בפיתוח ובפריסה אחראית של מערכות בינה מלאכותית.
צוות המשימה נוצר בפברואר וכולל 24 חברים, 12 רפובליקנים ו-12 דמוקרטים, כולם נלקחים מ-20 ועדות כדי להבטיח אחריות שיפוטית מקיפה על נושאי הבינה המלאכותית הרבים שמטופלים "וכדי ליהנות ממגוון של תובנות ונקודות מבט שונות".
אחד הדאגות העיקריות המודגשות בדוח הוא פרטיות הנתונים. מערכות בינה מלאכותית מסתמכות לרוב על כמויות אדירות של נתונים, שיכולות לכלול מידע אישי רגיש. הסיכונים להפרות פרטיות מתגברים כאשר מערכות אלו מועסקות במסגרות ממשלתיות ובמגזר הפרטי, מדגיש הדו"ח. מסגרות נוכחיות כמו חוק הפרטיות משנת 1974 מספקות הגנות מסוימות, אך האופי הדינמי והנפוץ של טכנולוגיות AI מודרניות מחייב אמצעי הגנה חזקים יותר. זה כולל התייחסות לחששות לגבי גישה לא מורשית לנתונים, הבטחת אנונימיזציה של נתונים ויישום עקרונות פרטיות לפי עיצוב במערכות בינה מלאכותית.
הדו"ח מדגיש את העובדה ש"אין חוק פרטיות ואבטחה פדרלי בארה"ב.
הדו"ח מדגיש כיצד בינה מלאכותית יכולה להחמיר את נזקי הפרטיות הקיימים, ולעיתים קרובות משאירה אנשים עם דרכים מוגבלות לפנות. צעדים שגויים באופן שבו מערכות בינה מלאכותית אוספות ומשתמשות בנתונים הובילו לאירועי פגיעה, כמו מעצרים לא חוקיים עקב מערכות זיהוי פנים פגומות. סוגי הבעיות הללו, אומר הדו"ח, מדגימים את הסכנות הטמונות בפריסת AI ללא מנגנוני פיקוח או אחריות מספקים. דוגמאות כאלה הציתו מחדש את הקריאות לחוקי פרטיות פדרליים מקיפים שהם גם ניטרליים לטכנולוגיה וגם ישימים במגזרים שונים כדי למנוע תקנות מדינה שונות.
סומי סהא, סגן נשיא בכיר לענייני ממשל בחברת טכנולוגיית הבריאות Premier Inc., אמר כי המלצות כוח המשימה "תואמת את התמיכה ארוכת השנים של Premier למעקות בטיחות רגולטוריים הגיוניים עבור AI בריאות. פרמייר מעריך את ההכרה של כוח המשימה ביכולת הטרנספורמציה של AI להפחית עומסים אדמיניסטרטיביים ולשפר את הטיפול בחולים. עם זאת, כדי לממש את היתרונות המשנים חיים של חידושים כמו הרשאה מוקדמת אלקטרונית בזמן אמת, הקונגרס חייב לטפל בחוקי פרטיות הנתונים המפוצלים של המדינה המהווים מחסום להגדלת הטכנולוגיה הזו. תקני פרטיות נתונים פדרליים חיוניים להבטחת הגנות עקביות, טיפוח גישה שוויונית והרחבת פתרונות המונעים בינה מלאכותית ביעילות."
זכויות וחירויות האזרח עומדות על כף המאזניים באותה מידה ביישום הבינה המלאכותית. כפי שמציין הדו"ח, מערכות בינה מלאכותיות שתוכננו בצורה לא נכונה או בשימוש לרעה עלולות לגרום לתוצאות מפלות. דאגה זו חריפה במיוחד בתחומים כמו משפט פלילי, דיור, תעסוקה ושירותים פיננסיים, שבהם נעשה שימוש במודלים של בינה מלאכותית כדי לקבל החלטות שיכולות להשפיע באופן משמעותי על חייהם של אנשים.
צוות המשימה מצא שמערכות בינה מלאכותיות פגומות עלולות לקודד בטעות או להנציח הטיות הקיימות בנתוני האימונים שלהן, ולהוביל לתוצאות לא הוגנות. הדו"ח אומר כי "הטיות במערכות בינה מלאכותיות יכולות לתרום לפעולות מזיקות או לתוצאות שליליות ולהביא להחלטות לא מוצדקות, לא רצויות או לא חוקיות". דוגמאות כוללות החלטות המקפחות אנשים על סמך מאפיין מוגן אחד או יותר של אותו אדם, כגון גזעו, מינו או מעמדו של אדם ותיק. לדוגמה, הוכח כי אלגוריתמים מסוימים של גיוס עובדים פוגעים במועמדים מקבוצות שאינן מיוצגות פחות עקב מערכי נתונים מוטים.
"הטיות מערכתיות נובעות מהנהלים ומהפרקטיקות של מוסדות מסוימים, שאולי אינם מפלים במודע, אך עשויים לקפח קבוצות חברתיות מסוימות. ההטיות הללו יכולות לבוא לידי ביטוי במערך נתונים המשמשים לאימון מערכות בינה מלאכותית ולא מטופלות על ידי הנורמות והפרקטיקות של פיתוח ופריסה של בינה מלאכותית", נכתב בדו"ח.
בנוסף, הדוח אומר "הטיות סטטיסטיות וחישוביות נובעות משגיאות המתרחשות כאשר הנתונים שמערכת הבינה המלאכותית מאומנת עליהם אינם מייצגים אוכלוסיות רלוונטיות. הטיות אלו מתעוררות כאשר אלגוריתמים מאומנים על סוג אחד של נתונים ואינם יכולים לבצע אקסטרפולציה מדויקת מעבר לכך."
"לבסוף", אומר הדו"ח, "הטיות אנושיות יכולות לנבוע מתופעות קוגניטיביות נפוצות כמו הטיית עיגון, היוריסטיות זמינות או השפעות מסגור הנובעות מקיצורי דרך מנטליים אדפטיביים, אך יכולות להוביל להטיה קוגניטיבית. שגיאות אלו הן לרוב מרומזות ומשפיעות על האופן שבו אדם או קבוצה תופסים מידע ופועלים לפיו."
כדי לצמצם סיכונים כאלה, הדו"ח תומך בפיקוח אנושי בתהליכי קבלת החלטות בינה מלאכותית בעלי חשיבות גבוהה. גישת "אדם בתוך הלולאה" זו מבטיחה שהחלטות המתקבלות על ידי מערכות בינה מלאכותיות נבדקות על ידי אנשים המסוגלים לזהות ולתקן הטיות או שגיאות פוטנציאליות. יתרה מכך, הרגולטורים המגזריים חייבים להיות מצוידים במומחיות ובכלים כדי להעריך ולטפל בסיכונים הקשורים לבינה מלאכותית בתחומיהם המתאימים. העצמת הרגולטורים הללו היא חיונית בשמירה על הוגנות ואחריות.
הדו"ח מציין, עם זאת, כי "כאשר דנים בהטיה בבינה מלאכותית, חשוב לזכור שלא כל הטיה מזיקה, ולא כל הטיית בינה מלאכותית נובעת מהטיה אנושית... לא כל ההטיה מזיקה מטבעה. הטיות סטטיסטיות וחישוביות המתעוררות בניתוח הן חלק נורמלי וצפוי ממדעי הנתונים, למידת מכונה וחלק מטכנולוגיות הבינה המלאכותית העכשוויות הפופולריות ביותר".
שקיפות היא אבן יסוד נוספת בטיפול בדאגות הפרטיות וזכויות האזרח בממשל בינה מלאכותית. "ללא שקיפות מספקת לגבי האופן שבו מערכות בינה מלאכותית מייצרות את התפוקות שלהן", נכתב בדו"ח, "יש להעריך את מערכת הבינה המלאכותית בזמן שהיא נפרסת כדי לקבוע אם יש לה פוטנציאל להפיק החלטות מפלות. אולי לא תמיד ברור איך מערכות בינה מלאכותית מייצרות את התפוקות שלהן, איזה תפקידים התפוקות האלה ממלאות בקבלת החלטות אנושית, או איך לתקן את הפגמים האלה".
הדו"ח מדגיש את החשיבות של הסברה לציבור על אופן השימוש במערכות בינה מלאכותית, במיוחד בפעולות ממשלתיות. לדוגמה, יש להודיע לאזרחים כאשר בינה מלאכותית משחקת תפקיד בהחלטות המשפיעות עליהם. מנגנוני שקיפות, כגון תיעוד מקורות נתונים, תהליכי פיתוח מודלים וקריטריונים לקבלת החלטות, חיוניים. צעדים אלה לא רק בונים את אמון הציבור, אלא הם גם מאפשרים פיקוח יעיל, אומר הדו"ח.
עם זאת, יש לאזן בין שקיפות לבין שיקולי אבטחה ומידע קנייני. צוות המשימה מציין שאמנם חשיפה ציבורית מלאה לא תמיד אפשרית, תיעוד פנימי ותיאום בין רשויות יכולים להבטיח שמערכות בינה מלאכותית עומדות בסטנדרטים אתיים מבלי לפגוע במידע רגיש.
הדו"ח גם מדגיש את הצורך בתקנים טכניים מעודכנים והערכות כדי לטפל בנושאי פרטיות וזכויות אזרח בבינה מלאכותית. המכון הלאומי לתקנים וטכנולוגיה (NIST) פיתח מסגרת ניהול סיכונים בינה מלאכותית מרצון כדי להנחות את בעלי העניין בזיהוי והפחתת סיכונים. אבל בעוד שמסגרת זו מספקת קו בסיס תיאורטי, צוות המשימה זיהה את הצורך בסטנדרטים מקיפים יותר המותאמים ליישומי AI ספציפיים - סטנדרטים שצריכים לשלב בדיקות חזקות להטיות ופוטנציאל מפלה.
יתר על כן, הדו"ח קורא להשקעות פדרליות במחקר ופיתוח כדי לקדם טכנולוגיות לשיפור הפרטיות. טכניקות כמו פרטיות דיפרנציאלית, חישוב מאובטח מרובה צדדים ולמידה מאוחדת יכולות לאפשר למערכות AI לעבד נתונים מבלי לחשוף מידע רגיש. תמיכה בחידושים הללו חיונית להתאמת פריסת בינה מלאכותית להגנת זכויות האזרח, נכתב בדוח.
תפקידה של מנע פדרלי בממשל בינה מלאכותית הוא תחום מיקוד נוסף. בעוד שחוקי מדינה העוסקים בבינה מלאכותית ופרטיות נתונים מתעוררים, צוות המשימה מציע שגישה פדרלית מאוחדת יכולה לספק בהירות ועקביות. מנע פדרלי יכול להרמוני מסגרות רגולטוריות, ולמנוע טלאים של חוקי מדינה שעלולים להפריע לחדשנות או ליצור אתגרי ציות לעסקים הפועלים על פני קווי מדינה. עם זאת, גישה זו חייבת לשקול היטב את האיזון בין הסטנדרטים הלאומיים ליכולת של מדינות לטפל בבעיות מקומיות ייחודיות.
המלצות כוח המשימה מתרחבות גם לחינוך ופיתוח כוח אדם. גישור על פערי הכישרונות בינה מלאכותית, אמר הפאנל, חיוני לפיתוח ויישום מערכות בינה מלאכותית אתיות. מאמצים לשפר אוריינות בינה מלאכותית במוסדות חינוך ובכוח העבודה יכולים להעצים אנשים נוספים לתרום לחדשנות בינה מלאכותית תוך הגנה מפני שימוש לרעה בה.
צוות המשימה גם התמודד עם נושא האותנטיות של תוכן מקוון, ואמר "שחקנים רעים יכולים להשתמש בתוכן סינתטי כדי לבצע הונאה, להפיץ מידע כוזב ולמקד אנשים. הטיפול בנזקים הללו חשוב וחייב להיעשות גם בהקשר של הגנה על זכויות התיקון הראשון".
אם יטופלו חששות גדולים של פרטיות ואבטחה, טכנולוגיית זהות דיגיטלית עשויה לאפשר לאדם מקוון להוכיח את זהותו למשתמשים אחרים ולפלטפורמות מקוונות", נכתב בדו"ח, ומציין כי "ברגע שזהותו של האדם מאומתת, קל יותר להפחית את הונאות המבוצעות. באמצעות התוכן הדיגיטלי שהם יוצרים, משנים או מפיצים."
על ידי מתן עדיפות לשקיפות, אחריות והגינות, ארה"ב יכולה להוביל בפיתוח ובפריסה אחראית של מערכות בינה מלאכותית, אך קובעי מדיניות, רגולטורים ובעלי עניין יצטרכו לעבוד בשיתוף פעולה כדי ליצור סביבה שבה חדשנות משגשגת תוך הגנה על זכויות הפרט וערכי החברה.
נושאי מאמר
||||||