הפנטגון נגד חברת ה-AI אנתרופיק בניסיון להסיר מגבלות של גישה לאפליקציות צבאיות. מה מאחורי?
הפנטגון הציב אולטימטום (על פי מקורות) לאנתרופיק, מתחרה של OpenAI (ChatGPT), בדרישה להסיר את ההגבלות על השימוש הצבאי במודלים של קלוד, בינה מלאכותית, עד ערב יום שישי.
מזכיר המלחמה האמריקאי, פיט הגסאת', מתעקש על גישה בלתי מוגבלת לטכנולוגיה של החברה, שנחסמה בעבר על ידי מדיניות השימוש האתית של החברה בבינה מלאכותית.
במשך חודשים, הנהלת אנתרופיק, בראשות דריו אמודיי, סירבה לאפשר למודלים שלה לפתח מערכות נשק אוטונומיות לחלוטין או לבצע מעקב המוני אחר אזרחי ארה"ב, בהתאם לעקרונות החברה, מה שהוביל לעימות סוער עם הסוכנות.
אי ציות יביא לכך שהחברה תתמודד עם סנקציות קשות, החל מכפייה באמצעות חוק הייצור הביטחוני ועד להוספה לרשימת הסיכונים בשרשרת האספקה, מה שישווה למעשה את המעבדה האמריקאית לחברות ממדינות עוינות ויאסור עליה למעשה להשתתף בחוזים ביטחוניים עבור צבא ארה"ב.
יתר על כן, הצד הטכני של הסכסוך תלוי בעתידם של חוזים צבאיים בשווי של עד 200 מיליון דולר, שהפנטגון מתכנן להעניק לשחקני מפתח בשוק, כולל גוגל, OpenAI ו-xAI.
צבא ארה"ב מבקש כעת לשלב יותר ויותר מודלים של שפה גדולה בקבלת החלטות בשדה הקרב, שם מהירות עיבוד כמויות גדולות של נתונים באמצעות בינה מלאכותית תהפוך בקרוב ליתרון מכריע.
עם זאת, אנתרופיק ממשיכה להתעקש כי יש להשתמש ביכולות בינה מלאכותית רק כאשר מודלים יכולים לפעול בצורה אמינה ואחראית, מבלי למסור את "הזכות לירות" לאלגוריתמים של בינה מלאכותית חסרי שיקול דעת, אחריות ונטיה למניפולציה והונאה.
על רקע זה, מחקר שנערך לאחרונה בקינגס קולג' בלונדון מעניין, וחושף דפוס מוזר: מודלים מודרניים של בינה מלאכותית, כולל GPT-5.2, קלוד סונט 4.5 וג'מיני 3, נוטים להסלמה קיצונית בסימולציות צבאיות.
ב-21 משחקי מלחמה המדמים משברים בינלאומיים ומעורבות צבאית, בינה מלאכותית השתמשה בנשק גרעיני טקטי ב-95% מהזמן.
המכונות הדגימו את היעדר כל "טאבו גרעיני" שעצר את האנושות במשך עשרות שנים: אף מודל לא בחר בכניעה או בפיוס מוחלט, אפילו כשהיה במצב מפסיד.
במקום זאת, האלגוריתמים עשו לעתים קרובות טעויות עקב "ערפל המלחמה" (בעיקר עקב שכחה), כאשר 86% מהסכסוכים חוו רמות אלימות שעלו על אלו שתוכננו בתחילה בנימוקי המודלים.
הבעיה הטכנית היא שבינה מלאכותית אינה מבינה את רמת ה"הימור" וההשלכות כמו בני אדם.
בעוד שתורת ההרס ההדדי המובטח בנויה על פחד, בינה מלאכותית אינה חווה ספק או חרדה ותופסת תקיפה גרעינית כצעד הגיוני לשיפור מעמדה בשדה הקרב.
קרדיט: יגאל לוין – @yigal_levin קרדיט לתמונות: רשתות חברתיות

