|
Page:15
שילוב בינה מלאכותית במצבי חירום : מבט ביקורתי 15 יישום טכנולוגיות בינה מלאכותית במערכות המיועדות לנהל ולקדם חוסן מעלה כמה סוגיות אתיות ופוליטיות הקשורות לדרכים שבהן פועלות מערכות בינה מלאכותית, כפי שיפורט להלן . אומנם חלקן אינן ייחודיות לחמב"ם, אך חלקן האחר זוכה למשמעות מיוחדת בהקשר זה . תחילה נדון בסוגיות אתיות ופוליטיות הקשורות לשימוש בבינה מלאכותית בהקשר של יישומי חוסן ממוחשבים, ובהמשך נסקור את מגוון השיקולים שיש להביא בחשבון בתכנון ובמחקר ופיתוח ( מו"פ ) של מערכות חמב"ם . כאשר מטמיעים טכנולוגיות בינה מלאכותית במערכות חוסן, חשוב להבין שטכנולוגיות אלו מארגנות את העולם באופן שונה מן הדרך שעושים זאת בני האדם . דיוויד צ'נדלר טוען במאמרו A world without ‟ Causation : Big Data and the Coming of Age of Posthumanism” ( "עולם ללא סיבתיות : ביג דאטה וההתבגרות של הפוסט- הומניזם" ; 2015 Chandler ) כי ה"רציונליות", המתקבלת באמצעות דפוסים שזיהו מערכות המחשב, שומטת את הקרקע מתחת לרלוונטיות של מושג הסיבתיות ומערערת את האמונה ביכולת להשפיע על העולם . כאשר המרחבים החברתיים והפוליטיים מוסדרים על ידי רציונליות מבוססת מכונה, היא מתנתקת בהדרגה מזו של האדם . לפיכך, בעוד שבעבר הבדלים חברתיים ופוליטיים היו פתוחים למחלוקות פוליטיות ואתיות, בעידן של בינה מלאכותית הם מעוצבים לרוב על ידי אלגוריתמים . יתרה מזו, אלגוריתמים אלו אינם חושפים את הדרך שבה הם פועלים, כלומר הם מתפקדים כקופסאות שחורות לתודעה האנושית, אשר לאור מורכבותן קשה ואף בלתי אפשרי לאתר את הבסיס הרציונלי שביסודן . אם יש טעויות או הטיות, אי- אפשר לחשוף אותן בכלים הקיימים . עקב כך, יישום טכנולוגיות בינה מלאכותית משמש לעיתים כאסטרטגיה להמרת השיח האתי והפוליטי בנושא החוסן בשיח טכנולוגי . תופעת "הקופסה השחורה" ( 2015 Pasquale ) מקשה לזהות את האחראים לכשל – אופרטיבי או אתי – ובייחוד מסבכת את חלוקת האחריות בין הגורמים השונים ( 2024 Berber and Srećković 2024 ; Boos ) . בעיית השקיפות מחריפה את בעיית האחריות, שהיא הרת גורל במיוחד במערכות Boos 2024 ( ADM ) , כלומר בעת קבלת החלטות אוטונומית בתנאי מורכבות ( complexity ) , מתוך התבססות על מודלים לא דטרמיניסטיים ( 2024 Berber and Srećković ) . 11 מאפיין נוסף של השימוש במערכות חמב"ם הוא ההעדפה האינהרנטית לפעולה בטווח הקצר ( Halpern and Mitchell 2023 ) , ובמיוחד לקבלת החלטות בזמן אמת . הדגש המושם בזמן אמת הופך במהירות את ההווה לעבר, ומטשטש את הגבולות בין עבר, הווה ועתיד . בעקבות זאת, מושג הזמן אינו נתפס באמצעות תבניות היסטוריות או פרוגרסיביות ( שמייצגות התקדמות ליניארית לעבר העתיד ) , אלא באמצעות סכמות של חזרתיות ורקורסיה שפועלות שוב ושוב ( שם ) . כפועל יוצא מכך, הטכנולוגיה מייצרת מסגרת ( framing ) ו"מסלילה" את השחקנים השונים לטווח פעולה מוגבל שקשה להשתחרר ממנו . במסגרת זו השחקנים השונים מחויבים לפעול עם המערכת הטכנולוגית, באמצעותה ולפי הלוגיקה שלה באופן שעשוי לקבע יחסי כוחות קיימים . האופן שבו הלוגיקה של האלגוריתם כופה את עצמה על המשתמשים משפיע גם במישור הגיאופוליטי . מרק דופילד טוען שמערכות טכנולוגיות לוקחות חלק ביצירת שיווי משקל עולמי חדש, המקשר בין מרחקים פיזיים, אפיסטמולוגיים וקיומיים ומקצר אותם ( 2016 Duffield ) . הוא מדגים זאת באמצעות פעולות המתבצעות על ידי משלחות סיוע הומניטריות בינלאומיות . לטענתו, פעולות סיוע המתבססות על כלים טכנולוגיים מתקדמים הופכות לעיתים אזורי אסון במדינות שאין בידיהן כלים טכנולוגיים מסוג זה, למעבדה מסחרית לא מוסדרת לפיתוח טכנולוגיות "חכמות" וניסויים בכריית נתונים . מדובר במעבדה שאין בה 11 מודל לא דטרמיניסטי מפיק תשובות שונות על שאילתה זהה, ובכך אינו מאפשר למפעילים לחזות מה יהיה הפלט .
|

|