נראה שסוכני AI הם מילת הבאזז הקרובה לשנת 2025. המערכות האוטונומיות הן בדרך כללככלי תוכנה שנועדו להפוך משימות לאוטומטיות ולהשיג יעדים מורכבים. עם זאת, מומחי טכנולוגיה כבר חולמים על דרכים חדשות בהן ניתן להשתמש בסוכני AI.
פרויקט זהות דיגיטלית מבוסס ביומטריה של איריס, בעברבתור Worldcoin, אומר שתפיסת ההוכחה של האדם (PoH) שלו מביאה מספר יתרונות הקשורים לסוכני AI.
המכונה גם הוכחה לאישיות, PoH מאפשרת לנו לוודא אם פעולה או חשבון דיגיטליים שייכים לאדם אמיתי ולא לבוט, AI או מערכת אוטומטית. העולם משיג זאת על ידי אישור שהמשתמש אמיתי באמצעות סריקת קשתית ויצירת מזהה עולמי.
ביחס לסוכני בינה מלאכותית, PoH יכול לעזור להבחין בין בני אדם לבין סוכני בינה מלאכותית מתוחכמים, כגון אלו שעלולים להפיץ מידע מוטעה, לדברי החברה.
היתרון השני הוא שליטה: סוכני בינה מלאכותית צפויים להתאגד בסופו של דבר בלהקות או רשתות. במסגרת תנאים אלה, יהיה צורך להבחין מיהו האדם המפקח על הסוכן.
לבסוף, סוכני בינה מלאכותית עשויים לייקר עבור בני אדם להתחרות על מרחב בלוקצ'יין, וזה חשוב במיוחד עבור סוחרי קריפטו. PoH יכול לפתור את הבעיה עם פתרונות שנותנים עדיפות לעסקאות מאנשים מאומתים על פני סוכנים או בוטים. World Chain כבר מיישמת פתרון כזה.
כוח עבודה דיגיטלי
יצרנית השבבים Nvidia, לעומת זאת, רואה את סוכני הבינה המלאכותית באור אחר. מייסד ומנכ"ל החברה, Jensen Huang, הציג את החזון שלו לטכנולוגיה ב-נאום מרכזיב-CES 2025 בשבוע שעבר.
"בעתיד, סוכני הבינה המלאכותית האלה הם בעצם כוח עבודה דיגיטלי שעובד לצד העובדים שלך ועושים דברים בשבילך בשמך", אומר הואנג. "הדרך שבה היית מביא את הסוכנים המיוחדים האלה, הסוכנים המיוחדים האלה, לתוך החברה שלך היא להכניס אותם, בדיוק כמו שאתה על סיפון עובד."
החברה קוראת לצינור העובדים הדיגיטלי הזה Nemo. Nvidia יצרה ספריות שונות המסייעות לסוכני AI אלה להיות מאומנים בהתאם לצרכי הלקוח שלהם. אחת ההכרזות הגדולות ב-CES הייתה הצגת משפחת דגמים המבוססת על דגמי ה-Llama Nemotron.
"בהרבה מובנים, מחלקת ה-IT של כל חברה הולכת להיות מחלקת משאבי אנוש של סוכני בינה מלאכותית בעתיד", מוסיף הואנג. "בעתיד, הם ישמרו, יטפחו, ישפרו וישפרו חבורה שלמה של סוכנים דיגיטליים ויספקו אותם לחברות לשימוש."
כיצד סוכן AI גורם נזק
סוכני בינה מלאכותית לא זוכים למעקב צמוד רק בגלל הפוטנציאל שלהם להפיץ מידע מוטעה ותעמולה. הם יכולים לגרום נזק על ידי מניפולציה בשוק המניות, גניבת זכויות יוצרים, הפרת פרטיות וחיזוק הטיות.
"כל אלה הם דאגות תקפות, וכל ארגון שרוצה למנף בינה מלאכותית צריך לקחת את הבטיחות והאבטחה ברצינות", כותב מדען המחשבים צ'יפ הויין ב-פוסט בבלוגעיבוד מתוך ספרה AI Engineering. "עם זאת, זה לא אומר שאסור לתת למערכות בינה מלאכותית את היכולת לפעול בעולם האמיתי."
Huyen מוסיף שחברות צריכות להבטיח שהמערכת מוגנת מפני שחקנים רעים שעלולים לנסות לתמרן אותה לביצוע פעולות מזיקות.
נושאי מאמר
|||||