(קרדיט: © Jakub Jirsak | Dreamstime.com)
לולאת המשוב המסוכנת בין בני אדם למכונות
בְּקִצוּר נִמרָץ
- כאשר בני אדם מקיימים אינטראקציה עם מערכות בינה מלאכותיות מוטות, הם הופכים להיות מוטים יותר בעצמם עם הזמן, ויוצרים לולאת משוב מסוכנת שמגבירה את ההטיות הראשוניות באופן משמעותי יותר מאשר אינטראקציות בין אדם לאדם.
- אנשים נוטים בערך פי שלושה לשנות את החלטותיהם כאשר אינם מסכימים עם בינה מלאכותית (32.72%) בהשוואה כאשר אינם מסכימים עם בני אדם אחרים (11.27%), אולם הם ממעיטים באופן עקבי עד כמה AI משפיע על שיקול הדעת שלהם
- בעוד AI מוטה יכול ליצור מחזורים מזיקים שמחזקים דעות קדומות, המחקר מראה שאינטראקציה עם מערכות AI מדויקות וחסרות פניות יכולה למעשה לשפר את קבלת ההחלטות האנושית, תוך הדגשת החשיבות של תכנון מערכות AI זהיר
לונדון -הטיה לא מודעת של רופא עלולה להשפיע על הטיפול בחולה. הדעות הקדומות של מנהל גיוס עשויות להשפיע על הגיוס. אבל מה קורה כשאתה מוסיף AI לתרחישים האלה? לפי מחקר חדש, מערכות בינה מלאכותית לא רק משקפות את ההטיות שלנו - הן מעצימות אותן, ויוצרות אפקט של כדור שלג שהופך את בני האדם למוטים יותר ויותר לאורך זמן.
הממצא המטריד הזה מגיע ממחקר חדש שפורסם בטבע התנהגות אנושיתשחושפת כיצד בינה מלאכותית יכולה לעצב שיקול דעת אנושי בדרכים המגבירות דעות קדומות וטעויות קיימות. בסדרה של ניסויים שכללו 1,401 משתתפים, חוקרים מאוניברסיטת קולג' בלונדון ומ-MIT גילו שאפילו הטיות ראשוניות קטנות יכולות כדור שלג להרבה יותר גדולות באמצעות אינטראקציה חוזרת ונשנית של אדם-AI. אפקט ההגברה הזה היה חזק משמעותית ממה שמתרחש כאשר בני אדם מקיימים אינטראקציה עם בני אדם אחרים, מה שמרמז שיש משהו ייחודי באופן שבו אנו מעבדים ומפנים מידע שנוצר בינה מלאכותית.
"אנשים מוטים מטבעם, כך שכאשר אנו מאמנים מערכות בינה מלאכותית על סטים של נתונים שהופקו על ידי אנשים,למד את ההטיות האנושיות המוטמעות בנתונים", מסבירה פרופסור טלי שרות, מחברת המחקר. "AI נוטה אז לנצל ולהגביר את אלהכדי לשפר את דיוק החיזוי שלו".
שקול תרחיש היפותטי: ספק שירותי בריאות משתמש ב-כדי לעזור לסנן תמונות רפואיות לאיתור מחלות אפשריות. אם למערכת הזו יש אפילו הטיה קלה, כמו סבירות גבוהה יותר לפספס סימני אזהרה בקבוצות דמוגרפיות מסוימות, הרופא האנושי עשוי להתחיל לשלב באופן לא מודע את ההטיה הזו בהחלטות הסינון שלו לאורך זמן. ככל שה-AI ממשיך ללמוד מהחלטות אנושיות אלה, השיפוט האנושי והמכונה עשוי להיות מוטה יותר ויותר.

החוקרים חקרו תופעה זו באמצעות מספר ניסויים שתוכננו בקפידה. במבחן מפתח אחד, המשתתפים התבקשו להסתכל על קבוצות של 12 פרצופים המוצגים במשך חצי שנייה ולשפוט אם הפרצופים, בממוצע, נראו שמחים או עצובים יותר. המשתתפים האנושיים הראשוניים הראו הטיה קטנה, וסיווגו פרצופים כעצובים בערך 53% מהמקרים. כאשר תוכנת מחשב נקראת ארשת נוירונים מתגלגלת(חשבו על זה כעל מערכת בינה מלאכותית שמעבדת תמונות בדומה לאיךdo) הוכשר על שיפוטים אנושיים אלה, הוא העצים את ההטיה הזו באופן משמעותי, וסווג פרצופים כעצובים ב-65% מהמקרים.
כאשר משתתפים חדשים יצרו אינטראקציה עם זה, הם החלו לאמץ את נקודת המבט המעוותת שלו. המספרים מספרים סיפור מדהים. כאשר המשתתפים לא הסכימו עם שיקול הדעת של ה-AI, הם שינו את דעתם כמעט שליש מהזמן (32.72%). לעומת זאת, בעת אינטראקציה עם בני אדם אחרים, המשתתפים שינו את דעותיהם החולקות רק כעשירית מהזמן (11.27%). זה מצביע על כך שאנשים נוטים בערך פי שלושה להיות מושפעים משיפוט בינה מלאכותית מאשר שיפוט אנושי.
אפקט הגברה ההטיה הופיע באופן עקבי על פני סוגים שונים של משימות. מעבר להבעות פנים, המשתתפים השלימו מבחנים שכללו תפיסת תנועה שבהם הם שפטו את כיוון הנקודות הנעות על גבי המסך. הם גם העריכו את הביצועים של אנשים אחרים במשימות, שם חוקרים גילו שהמשתתפים נוטים להעריך יתר על המידה את הביצועים של גברים לאחר אינטראקציה עם מערכת AI שתוכנתה בכוונה עםלשקף הטיות שנמצאות במערכות AI קיימות רבות.

"לא רק אנשים מוטים תורמים לבינה מלאכותית מוטה, אלא שמערכות בינה מלאכותיות יכולות לשנות את האמונות של אנשים עצמם כך שאנשים משתמשיםיכול בסופו של דבר להיות מוטה יותר בתחומים, החל משיפוטים חברתיים ועד לתפיסה בסיסית", אומר ד"ר משה גליקמן, מחבר משותף של המחקר.
כדי להדגים השלכות בעולם האמיתי, החוקרים בדקו מערכת פופולרית ליצירת תמונות בינה מלאכותית בשםדיפוזיה יציבה. כשהתבקשה ליצור תמונות של "מנהלים פיננסיים", המערכת הפגינה הטיה חזקה, ויצרה תמונות של גברים לבנים ב-85% מהזמן - הרבה מחוץ לפרופורציה עם הדמוגרפיה בעולם האמיתי. לאחר צפייה אלה, המשתתפים הפכו בסבירות גבוהה יותר לשייך את תפקיד המנהל הפיננסי לגברים לבנים, והדגימו כיצד הטיות בינה מלאכותית יכולות לעצב תפיסות אנושיות לגבי תפקידים חברתיים.
כאשר נאמר למשתתפים כוזב שהם מקיימים אינטראקציה עם אדם אחר, תוך כדי אינטראקציה עם AI, הם הפנימו את ההטיות במידה פחותה. החוקרים טוענים שזה יכול להיות בגלל שאנשים מצפים שבינה מלאכותית תהיה מדויקת יותר מבני אדם במשימות מסוימות, מה שהופך אותם לרגישים יותר לכשהם יודעים שהם עובדים עם מכונה.
ממצא זה מדאיג במיוחד בהתחשב בתדירות שבה אנשים נתקלים בתוכן שנוצר בינה מלאכותית בחיי היומיום שלהם. מהזנות של מדיה חברתית ועד שכירת אלגוריתמים, מערכות בינה מלאכותית מעצבות יותר ויותר תפיסות והחלטות אנושיות. החוקרים מציינים שילדים עשויים להיות פגיעים במיוחד להשפעות אלו, שכן האמונות והתפיסות שלהם עדיין מתגבשות.
עם זאת, המחקר לא היה רק חדשות רעות. כאשר בני אדם קיימו אינטראקציה עם מערכות AI מדויקות וחסרות פניות, כושר השיפוט שלהם השתפר עם הזמן. "חשוב, מצאנו את זה באינטראקציה עםיכול לשפר את השיפוט של אנשים, ולכן חיוני שמערכות בינה מלאכותית יהיו מעודנות כך שיהיו כמה שיותר חסרות פניות ומדויקות", אומר ד"ר גליקמן.
הטיית בינה מלאכותית אינה רחוב חד סטרי אלא נתיב מעגלי שבו הטיות אנושיות ומכונות מחזקות זו את זו. הבנת הדינמיקה הזו היא חיונית ככל שאנו ממשיכים לשלב מערכות בינה מלאכותית בהיבטים יותר ויותר חשובים של החברה, משירותי בריאות ועד.
סיכום נייר
מֵתוֹדוֹלוֹגִיָה
במחקר השתתפו למעלה מ-1,200 משתתפים שהשלימו משימות שונות תוך אינטראקציה עם מערכות בינה מלאכותית. המשימות נעו בין שיפוט הבעות פנים והערכת דפוסי תנועה להערכת ביצועים של אחרים וביצוע שיפוטים מקצועיים. בדרך כלל הוצגו למשתתפים תחילה תגובתם, אחר כך תגובת הבינה המלאכותית, ולעתים ניתנה להם ההזדמנות לשנות את שיקול הדעת הראשוני שלהם. כל המשתתפים גויסו דרך Prolific, פלטפורמה מקוונת, וקיבלו תשלום של 7.50-9.00 ליש"ט לשעה בתוספת בונוסים פוטנציאליים עבור השתתפותם.
תוצאות
המחקר מצא שמערכות בינה מלאכותית הגבירו את ההטיות האנושיות ב-15-25% בהשוואה לנתונים האנושיים המקוריים שהם אומנו עליהם. כאשר משתתפים חדשים יצרו אינטראקציה עם מערכות AI מוטות אלה, ההטיות שלהם גדלו ב-10-15% לאורך זמן. השפעה זו הייתה חזקה פי 2-3 מהעברת הטיה בין בני אדם. המשתתפים זלזלו בעקביות בהשפעה של הבינה המלאכותית על השיפוט שלהם, גם כשההחלטות שלהם הפכו מוטות יותר.
מגבלות
המחקר התמקד בעיקר בשיפוט תפיסתי וחברתי במסגרות מעבדה מבוקרות. אינטראקציות בעולם האמיתי עם מערכות AI עשויות לייצר אפקטים שונים. בנוסף, מאגר המשתתפים גויס דרך פלטפורמה מקוונת, שאולי אינה מייצגת באופן מלא את האוכלוסייה הכללית. התוצאות עשויות להשתנות בין אלגוריתמים ודומיינים שונים.
דיון וטייק אווי
הממצאים מדגישים את האחריות המיוחדת של מפתחי אלגוריתמים בתכנון מערכות בינה מלאכותית, שכן להשפעתן של מערכות אלו עשויות להיות השלכות עמוקות על פני היבטים רבים של חיי היומיום. המחקר מוכיח שהטיית AI אינה רק בעיה טכנית אלא אנושית, עם פוטנציאל לעצב תפיסות חברתיות ולחזק דעות קדומות קיימות. בעוד שמערכות AI מוטות יכולות ליצור לולאות משוב מזיקות, למערכות AI מדויקות יש פוטנציאל לשפר את קבלת ההחלטות האנושיות, תוך שימת דגש על החשיבות של תכנון וניטור מערכת זהירים.
מימון וגילויים
המחקר מומן על ידי מלגת מחקר בכירה של Wellcom Trust. המחברים הצהירו שאין להם אינטרסים מתחרים.
מידע על פרסום
מחקר זה, "כיצד לולאות משוב אנושיות-AI משנות את השיפוטים התפיסתיים, הרגשיים והחברתיים של האדם", פורסם ב-טבע התנהגות אנושיתבדצמבר 2024, לאחר שהתקבל ב-30 באוקטובר 2024. המחקר נערך על ידי משה גליקמן וטלי שרות מאוניברסיטת קולג' בלונדון ומרכז מקס פלאנק UCL לפסיכיאטריה חישובית וחקר הזדקנות, עם השתייכות נוספת למחלקה למוח וקוגניטיבית של MIT. מדעים.
StudyFinds יוצאת למצוא מחקר חדש שמדבר לקהל המוני - בלי כל הז'רגון המדעי. הסיפורים שאנו מפרסמים הם גרסאות מחקר מסוכמות לעיכול שנועדו ליידע את הקורא וגם לעורר ויכוח אזרחי ומשכיל. מאמרי צוות StudyFinds נעזרים בבינה מלאכותית, אך תמיד נבדקים ונערכים ביסודיות על ידי איש צוות של Study Finds. קרא את מדיניות הבינה המלאכותית שלנו למידע נוסף.