הרתעה והסלמה בעידן המערכות החושבות

דוח חדש שפורסם על־ידי תאגיד RAND (מכון מחקר אמריקני שמייעץ לממשלות וגופים בין־ לאומיים בעיצוב תהליכי מדיניות ציבורית) בחודש מרס האחרון עוסק בהרתעה בעידן הבינה המלאכותית, ומתמקד בעיקר בשאלות האם היכולות החדשות המושגות הודות לבינה מלאכותית (בעיקר מערכות אוטונומית) עשויות להגביר את ההרתעה או דווקא להחלישה, ומהו הפוטנציאל של שיפוט שגוי להשלכות בלתי רצויות? ממצאי הדוח מבוססים על משחק מלחמה שבו היו מעורבות בינה מלאכותית ומערכות אוטונומיות. עד עתה, התבססה ההרתעה על אנשים שניסו להניא אנשים אחרים מלנקוט פעולות מסוימות, אולם כיום עולות כמה שאלות:
מה קורה כשתהליך החשיבה וקבלת ההחלטות אינו בלעדי לבני אדם, ומעורבות בו מכונות "חושבות"?
איך עשויה הדינמיקה להשתנות כשההחלטות והפעולות יכולות להיעשות במהירות של מכונה?
כיצד ישפיעו בינה מלאכותית ואוטונומיה על הדרכים של מדינות לאותת זו לזו על שימוש פוטנציאלי בכוח?
מהם השטחים הפוטנציאליים לשיפוט מוטעה ולהסלמה שאיש לא התכוון אליהם?
מהממצאים עולה שקבלת החלטות המבוססת על מכונה עלולה להוביל להסלמה בלתי מכוונת או לשינוי הדינמיקה של הרתעה, וזאת עקב מהירות ההחלטות הממוחשבות, ההבדל בינן ובין הבנה אנושית, השאיפה של מדינות רבות להשתמש במערכות אוטונומיות למרות חוסר ניסיון מספק וההתפתחות הנמשכת של יכולות אלה.
בין הממצאים העיקריים של הדוח:
לצורכי הרתעה, מערכות מאוישות עשויות להיות עדיפות על מערכות בלתי מאוישות.
המהירות של מערכות לא מאוישות עלולה להוביל להסלמה בלתי מתוכננת ולאי יציבות בעת משבר (זה מה שקרה במשחק המלחמה).
קרוב לוודאי שלמכונות יהיה קשה יותר מאשר לבני אדם להבין איתותים אנושיים בקשר להרתעה, ובמיוחד בנושא מניעת הסלמה.
מקרים קודמים של פעולה בלתי מתוכננת של מערכות אוטונומיות נגד מטרות אזרחיות או ידידותיות, עשויים לאפשר לנו להפיק תובנות בנוגע לכשלים פוטנציאליים של מערכות משוכללות יותר.
לפי הדוח, פעילות התכנון והפיתוח הנוכחית לא הקדישה תשומת לב לשאלה איך לטפל בסוגיות של פוטנציאל לערעור היציבות וההסלמה הנובעים מהטכנולוגיות החדשות, וחשוב מאוד שמקבלי החלטות יתחילו לחשוב על סוגיות אלה לפני שהמערכות החדשות יופעלו בפועל בעימות.
לקריאת הדוח המלא: https://www.rand.org/pubs/research_reports/RR2797.html