Meta תאפשר לסוכנויות ממשלתיות להשתמש בבינה המלאכותית שלה למטרות צבאיות, אך רק בתנאים מסוימים.

אָכֵן,לָאמָה- מודל הבינה המלאכותית הגנרטיבית של מארק צוקרברג - ישמש סוכנויות ממשלתיות ושותפיהן. עם זאת, שימוש זה יהיה מוגבל למטרת ביטחון לאומיויעסיקו חלק גדול ממגזרי הביטחון, כולל אלו של הצבא והתעשייה הגרעינית.
זה אכן מה שהודיע זה עתה ניק קלג, נשיא לעניינים גלובליים ב-Meta. הוא גם הדגיש כי לאמה ישמשלייעל לוגיסטיקה ותכנון מורכבים, לעקוב אחר מימון טרור ולחזק את הגנת הסייבר של ארה"ב
.

הדבר מהווה מהפך במדיניות של מטה. עד כה, הקבוצה אסרה שימוש מסוג זה אך היא מצדיקה שינוי עמדה זה, בהקדמת השימושאֶתִיקָהשל הבינה המלאכותית שלה, בהתייחס למטרה שנרדפת אליה ולאמצעים שמיושמים על ידי טרור או סוחרים, אבל גם לבסס את מודל הקוד הפתוח הזה כסטנדרט במירוץ אחר הבינה המלאכותית.
שימו לב שפעולה זו כוללת אשיתוף פעולה עם חברות טכנולוגיה גדולות אחרות, כגון מיקרוסופט, אמזון, יבמ, אורקל, או אפילו פלנטיר, על מנת לספק שירותים מקיפים לממשלה האמריקאית.
AI נגד AI
המידע הזה מגיע ימים לאחר פרסום מסמכים של אקדמאים ואנליסטים, הטוענים כי מכוני מחקר סיניים מובילים הקשורים לצבא השחרור העממי השתמשו במודל המטה,לפתח כלי AI המיועד ליישומים צבאיים אפשריים.
בחודש יוני,רויטרסטען ששישה חוקרים סינים משלושה מוסדות, כולל שניים תחת זרוע המחקר הראשית של צבא השחרור העממי (PLA), האקדמיה למדעי הצבא (AMS), הסבירו כיצד הם יצרוChatBIT
, בינה מלאכותית המבוססת על טכנולוגיית לאמה.
אבל זה, רחוק מלהיות פציפיסטי, הפגין אייעוד צבאי: הוא נועד למעשה לאסוף ולעבד מידע, ולהציע מידע מדויק ואמין לצורך קבלת החלטות תפעוליות. זה מספיק כדי להצית מחדש מחלוקות מוזנות היטב בנושא.