是什麼?
2024 年 8 月 28 日NGC 891 測試儀 測試儀 測試儀
2024 年 8 月 28 日網站平台
בינה מלאכותית בשירות מבצעי השפעה: כיצד הצליחו OpenAI ואנשי הסייבר לחשוף ולמנוע מבצע סודי של איראן שניסה לעצב את דעת הקהל האמריקאית
חברת OpenAI, שעומדת מאחורי ChatGPT המפורסם, ידועה בהיותה חברת בינה מלאכותית. לא אבטחה, לא סייבר, לא מוכרת נעליים. בינה מלאכותית. ואף על פי כן, לפני שבועיים הודיעה OpenAI שעצרה “מבצע השפעה סודי” של האיראנים, שניסו להשפיע על הבחירות באמצעות ChatGPT.
איך OpenAI הבינה שמתקיים בכלל מבצע כזה? באמצעות הבינה המלאכותית, כמובן.
אבל לפני שאספר לכם על המבצע הזה, אני צריך לספר לכם על מבצע אחר.
הנשיאה שהסרטונים אוהבים לשנוא
צאי יינג-ון הייתה אחת מהמנהיגות החשובות ביותר בעולם עד תחילת 2024. היא הייתה האשה הראשונה שנבחרה לנשיאות טאיוואן ב- 2016, ושלטה במדינה כנציגת המפלגה הפרוגרסיבית-דמוקרטית במשך שמונה שנים. בתקופה הזו היא הצליחה לחזק את הכלכלה ואת מעמדה של טאיוואן כיצרנית השבבים המתקדמת בעולם. במקביל, היא הצליחה להתמודד היטב עם כל איומיה ודרישותיה של סין, שעדיין סבורה שטאיוואן היא רק ‘בת סוררת’ שנפרדה ממעצמת-העל וצריכה להתאחות עמה מחדש. תחת שלטון סיני, כמובן.
בשנת 2024 הגיע הזמן בו אנשי טאיוואן היו צריכים לבחור בנשיא בשנית. יינג-ון לא הייתה יכולה להתמודד מחדש, אחרי שמונה שנים בתפקיד, אבל מפלגתה עדיין הובילה במירוץ. לכאורה הניצחון כבר היה בכיסם של הפרוגרסיבים-דמוקרטים.
ואז החלו להופיע הסרטונים.
בימים שלפני הבחירות ב- 2024, הופיעו אלפי סרטונים ותגובות על יוטיוב, שקידמו ושיווקו היסטוריה אלטרנטיבית: מסמך סודי ומזויף שהציג את יינג-ון באור שלילי במיוחד. הסרטונים נעשו רובם ככולם בעזרת בינה מלאכותית. אווטארים ריאליסטיים-למראה עמדו מול המצלמה ודיברו בסגנון של קרייני חדשות שחושפים את הסקופ הגדול הבא. חלקם גם פצחו בשיר שדרש מהצופים שלא להצביע למפלגתה של יינג-ון. לפחות במקרה אחד, הדובר היה סנטה קלאוס. כי למה לא.
הסרטונים היו רק יריית הפתיחה למבצע החיסול המקוון של הפרוגרסיבים-דמוקרטים. במקביל, התפרסמו אלפי תגובות לפרופילים של משתמשים אמיתיים בטייוואן, עם קישורים לסרטוני ההכפשה ולמסמך המפוברק נגד הנשיאה. עוד ועוד תגובות, סרטונים וקישורים צצו בשלל פלטפורמות: יוטיוב, טוויטר (או X), רדיט, אינסטגרם, פייסבוק, מדיום ורשתות חברתיות אחרות.
ימים ספורים לאחר תחילת המבצע, נערכו הבחירות הכלליות בטאיוואן. כשהעשן התפזר, התברר שמבצע ההכפשה הצליח באופן חלקי בלבד. הדמוקרטים-פרוגרסיבים עדיין ניצחו בבחירות, אבל 16 אחוזים מהקולות עברו למועמדים אחרים, בהשוואה לבחירות ב- 2016 וב- 2020.
האשם המרכזי
קשה מאד לדעת בוודאות מי עמד מאחורי מבצע ההשפעה בטאיוואן. לפי הערכותיה של גוגל, מדובר בקבוצה בשם DRAGONBRIDGE, שעוסקת בשנאניגנים מסוג זה כבר שנים ארוכות. בזמן האחרון השתדרגה הקבוצה והחלה להשתמש גם בבינה מלאכותית יוצרת כדי להפיק תוכן טקסטואלי, תמונות ואפילו אווטארים שמדברים כמו בני-אדם.
הקבוצה מקושרת-עמוקות למפלגה הקומוניסטית הסינית, ומתוארת לעתים כזרוע של השלטון. היא מקדמת מסרים פוליטיים שתומכים בסין, כמובן, ומנסה לזרוע מדונות ולהתסיס את תושבי המערב זה כנגד זה וכנגד הדמוקרטיה. בשנה האחרונה הקבוצה מנסה להציג גם את הפגנות הסטודנטים האמריקניים כנגד ישראל כראיה ל- “צביעות” האמריקנית. “חופש הביטוי?” שואל הקריין המלאכותי בדרמטיות, “רק עד שהסטודנטים מציגים עמדה שאינה תומכת בשלטון.”
רק כדי להבהיר: לדרגונברידג’ – או למפעילים שמאחוריה – לא באמת אכפת מישראל או ממצב הפלסטינים. הם פשוט רוצים להתסיס, ומנצלים כל הזדמנות לטובת העניין.
ואי-אפשר להאשים אותם שהם לא משתדלים.
בשנת 2023 בלבד, יוטיוב חסמה 57,000 ערוציץ יוטיוב של הקבוצה, ויותר מתשע-מאות אלף סרטונים. אם נניח שהפקת כל סרטון דורשת עבודה של לפחות מספר שעות אדם, המשמעות היא שיותר משני-מיליון שעות-אדם הושקעו בכל המאמץ הזה. ברור שדרגונברידג’ היא ארגון עם מאות או אלפי עובדים או מתנדבים, וכנראה שגם מימון נדיב מאד. מישהו – כנראה בסין – מאמין מאד בקבוצה וביכולותיה.
לא נעים לומר, אבל כנראה שלא בצדק.
גוגל מתפקדת כשומרת-הסף של חלק גדול מהאינטרנט, ובמיוחד הרשתות החברתיות ברשותה כמו יוטיוב ובלוגר. החברה מסכלת את פעילותה של דרגונברידג’ באופן יומיומי, ומדווחת מדי חודש על המלחמה הבלתי-פוסקת ברשת. כותבי הדו”חות של גוגל מנסים להישמע ענייניים, אבל קשה שלא לקלוט מבין השורות נימה של לגלוג כלפי דרגונברידג’.
“למרות שדרגונברידג’ מייצרת כמות גדולה של תוכן, היא עדיין לא זוכה בתשומת לב (engagement) רבה מצד המשתמשים ביוטיוב או בלוגר.” מסכם הדו”ח. “… דרגונברידג’ לא משיגה כמעט שום מעורבות אורגנית מצד צופים אמיתיים.”
נכון, קיימים גם סרטונים תוצרת-דרגונברידג’ שמצליחים להגיע לאלפי צופים. אלא שגם במקרים אלו, גוגל טוענת שלא מדובר בצופים אמיתיים.
“במקרים בהם התוכן של דרגונברידג’ קיבל תשומת לב, היא הייתה כמעט לגמרי לא-אותנטית, והגיעה מחשבונות אחרים של דרגונברידג’ ולא ממשתמשים אמיתיים. גם התגובות היו ברובן מחשבונות דרגונברידג’ אחרים.”
אז מה קרה בבחירות בטאיוואן? עד כמה שאפשר להבין, גם שם דרגונברידג’ לא ממש השפיעה. התקשורת בטאיוואן דיווחה אמנם על קיום הסרטונים, אך הוסיפה שעקב “איכות ההפקה הנמוכה” ו- “השימוש במונחים בשפה הסינית שאינם נמצאים בשימוש רווח בטאיוואנית”, התוכן לא זכה לתפוצה נרחבת.
למרות הנתונים האלו, דרגונברידג’ לא מראה שום סימן שהיא מתכוונת לחדול מפעילותה. הסיבה ברורה. אם גוגל צודקת ואכן מדובר בקבוצה שפועלת מטעם סין, הרי שהיא למעשה זרוע של הממשלה והצבא. יש לה שליחות ברורה: להוציא לפועל מבצעי השפעה סודיים בכל העולם.
בדיוק כפי שעושים כולם.
מבצעי השפעה סודיים
אחד הסודות הגלויים ביותר בעולם הוא שכל מדינה שמכבדת את עצמה, מנסה לעצב את דעת הקהל העולמית באמצעות מבצעי השפעה סודיים. הסינים עושים זאת עם פטיש 500 קילו, וחובטים בראש של המדיה החברתית עם 900,000 סרטונים בשנה. לכאורה, כמובן. הרוסים לא מפגרים בהרבה מאחורי הסינים, וממש לאחרונה נחשף מבצע השפעה מטעמם, בו השתמשו בבינה מלאכותית ליצירת כמעט אלף חשבונות מזויפים בטוויטר (X) בלבד.
אה, וגם אנחנו שם. לפי הניו-יורק טיימס, השר שיקלי הקציב שני מיליון דולרים למבצע השפעה סודי כנגד אויבתנו הגדולה ביותר: ארצות הברית. במסגרת המבצע נפתחו מאות חשבונות מזויפים שהתחזו לאמריקנים אמיתיים ברשתות החברתיות, ופרסמו תגובות פרו-ישראליות. ה- ‘מגיבים’ התמקדו בעיקר במחוקקים אמריקניים וקראו להם להמשיך לתמוך כלכלית בצה”ל.
וכמובן שהם השתמשו ב- ChatGPT כדי לכתוב רבות מהתגובות.
אפשר לטעון בצדק שמבצעי השפעה סודיים מהסוג הזה הם עניין מגונה, אבל כמו שאמרתי קודם: כל מדינה שמכבדת את עצמה, מוציאה לפועל מבצעים כאלו. אפילו ארצות הברית הגדולה והאצילית הקימה צוות להשפעה מבפנים על המדיה החברתית בסין, וניסתה להתסיס את האוכלוסייה כנגד מפלגת השלטון.
אבל האם המבצעים האלו מצליחים?
בעיית שלושת הגופים
הספר “בעיית שלושת הגופים” הוא ספר סיני.
כשאני אומר שהוא “סיני”, אני לא מתכוון רק שהוא נכתב בסין או בשפה הסינית. כל עמוד בספר משקף את התרבות הסינית, את דרך החשיבה הסינית ואת האופן בו אזרחי סין מפרשים את המציאות. הספר תורגם לאנגלית על-ידי חברה ממשלתית (China Educational Publications Import and Export Corporation) כדרך (במשתמע) להפיץ את התרבות הסינית ברחבי העולם.
התוצאה? כאמור, ספר סיני, אבל באנגלית. כבר מהעמוד הראשון שקראתי, היה לי ברור שהכותב המקורי מגיע מתרבות שונה מאד מזו האמריקנית. המתרגם עשה אמנם עבודה טובה בהתאמת עולם המונחים, אבל התחושה היא של “זרות”. של כתיבה המשקפת עולם ערכים והתנהלות שונים מאד מאלו הנהוגים בעולם המערבי.
כל זה לא אומר ש- “בעיית שלושת הגופים” אינו ספר טוב. פשוט שהוא – סיני. ואפילו אם הוא היה נכתב מחדש בכתב ברייל, עדיין כל עיוור שהיה מעביר עליו את אצבעותיו היה מודיע מיד בקול – “זה סיני”.
תרבויות אנושיות, מסתבר, שונות מאד זו מזו. כאשר סיני מנסה לכתוב באנגלית, קל מאד לזהות שמדובר בסיני. וכך גם כשאמריקני מנסה לכתוב בסינית, או כשישראלי מנסה לכתוב ב- ‘אמריקנית’. יש הטוענים שאפילו כתיבה בין-מגדרית אינה דבר של מה בכך, ושגברים מתקשים מאד לכתוב מנקודת מבטן של דמויות נשיות מבלי שהכתיבה תיראה מגוחכת לקוראות.
זו כנראה הסיבה שרוב מבצעי ההשפעה הסודיים המוכרים לנו כיום, נכשלו קשות.
דרגונברידג’ הסינית-לכאורה, כפי שכבר כתבתי, ניסתה להשפיע על הטאיוואנים מבלי להתאים את השפה והמונחים לקהל היעד. כאשר הרוסים והאיראנים מנסים להשפיע על ישראל, אפשר לזהות כמעט מיד את העובדה שמישהו מנסה לכתוב בשפה שאינה שלו. אין לנו נתונים לגבי הצלחת המבצע של האמריקנים בסין, אבל אם הייתי צריך להמר על התוצאה, הייתי שם כסף טוב על כך שהם הצליחו בדיוק כפי שדרגונברידג’ הצליחו לעצב את דעת הקהל לטובתם. כלומר, כישלון כמעט מוחלט. קשה, קשה להעביר מסרים בשפה ובתרבות אחרת.
ואני אפילו לא מתייחס לנסיונות של שיקלי, בהם חשבונות של אמריקנים שחורים פרסמו תגובות כ- “אשה יהודיה בגיל העמידה”, או 118 תגובות שחזרו על אותו המשפט בדיוק: “I gotta reevaluate my opinions due to this new information”. זו סתם חובבנות. לכאורה.
ואחרי כל ההקדמה הארוכה הזו, אנו מגיעים סוף-סוף לסיפור העכשווי, בו האיראנים ניסו להוציא לפועל מבצע השפעה סודי בארצות-הברית. ולשם שינוי, ייתכן שהיה לו סיכוי באמת להצליח. למה? כי הם הבינו שהם יכולים להשתמש בטכנולוגיה שמשנה בימים אלו את המשחק בכל תחום: בבינה המלאכותית.
בינה מלאכותית לטובת מבצעי השפעה
אנשי אבטחת הסייבר של OpenAI זיהו באמצע אוגוסט 2024 צבר של חשבונות איראניים שעשו שימוש חשוד ב- ChatGPT. במבט מקרוב היה ברור שהם משתמשים בבינה המלאכותית ליצירת תוכן למבצע השפעה סודי, במטרה להשפיע על הבחירות בארצות הברית.
האיראנים השתמשו בבינה המלאכותית בשתי דרכים. מצד אחד, הם הפיקו מאמרים על הפוליטיקה הפנימית בארצות הברית, שהתפרסמו בחמישה אתרי רשת פרוגרסיביים ושמרניים. מהצד השני, הם ייצרו סדרה של תגובות קצרות למדיה החברתית באנגלית ובספרדית. התגובות הללו התפרסמו בתריסר חשבונות בטוויטר (X) ובאינסטגרם. בשני המקרים, האיראנים נעזרו ב- ChatGPT כדי שיכתוב עבורם את המאמרים ואת ההערות, או שישכתב תוכן קודם באנגלית ובספרדית.
התוכן עצמו כלל מנעד נרחב: ממלחמת ישראל-עזה, למעורבות הישראלית באולימפיאדה וכלה בבחירות לנשיאות ארצות הברית. פה ושם שולבו גם הערות על הפוליטיקה בוונצואלה, על זכויות מיעוטים בארצות הברית ועל זכותה של סקטולנד לעצמאות. הם קינחו בהערות על אופנה ויופי – כנראה כדי למשוך עוקבים נוספים.
וגם להם זה לא הצליח.
רוב הפרסומים של האיראנים במדיה החברתית לא זכו לתהודה: הם לא שותפו, לא קיבלו לייקים, ואיש לא הגיב להם. גם המאמרים לא שותפו ברשתות החברתיות. עוד מבצע השפעה סודי נחל כישלון חרוץ.
מה שמעלה את השאלה – למה?
קשה לענות על השאלה בלי לבחון במדוקדק את החומר שהאיראנים שיתפו. מה שאנחנו יכולים לומר כרגע על סמך דו”חות אחרים בנושא – למשל, של מיקרוסופט מאוגוסט 2024 – הוא שבחודשים האחרונים נעשו נסיונות מצד מדינות אחרות להשתמש בבינה מלאכותית כדי להרים מבצעי השפעה. הרוסים ניסו להשתמש בבינה המלאכותית היוצרת כדי לפגוע באולימפיאדה בפריז, ללא הצלחה. סוכנים סיניים ניסו להשתמש בבינה מלאכותית יוצרת, עם השפעה מוגבלת ביותר. וכפי שמיקרוסופט מסכמים בדו”ח –
“בסיכומו של דבר, ראינו כמעט את כל השחקנים מנסים לשלב תוכן של בינה מלאכותית במבצעים שלהם, אך לאחרונה שחקנים רבים חזרו לטכניקות שהוכיחו יעילות בעבר: מניפולציה דיגיטלית פשוטה, עיוות של תוכן וצירוף תגיות או לוגואים אמינים למידע כוזב.”
וכך הלכו גם האיראנים בדרכם של גדולים וטובים מהם – אמריקנים, סינים, רוסים וישראלים – ונכשלו בשימוש בבינה המלאכותית היוצרת.
אבל לא לעולם חוסן.
הדרך לבשלות
קיימים מעט מאד כלים, שבני-האדם הצליחו לעשות בהם שימוש אופטימלי כבר בפעם הראשונה. הבינה המלאכותית אינה יוצאת דופן מבחינה זו. נכון, האיראנים וכל היתר לא הצליחו עדיין להשפיע על מדינות זרות באמצעותה, אבל אין לי ספק שעם עוד קצת עבודה, מאמץ ורצון רע – הם יגיעו להצלחה גם בתחום זה.
מעבר לכך, כרגע אפשר לאפיין את מבצעי ההשפעה הסודית של המדינות כ- “שגר והתפלל”. לכל תגובה, כל סרטון, כל מקטע טקסט יש מחיר זעום ביותר. זו הסיבה שהסינים-לכאורה אינם מהססים להציף את הרשת במידע כוזב. נכון, כמעט אף פריט מידע לא יצליח להתפשט הלאה, אבל מספיקים סרטון אחד או טענה אחת שיהפכו לוויראליים, כדי לשנות את דעת הקהל של מדינה שלמה.
אפילו במקרה הקיצוני ביותר, בו הקבוצות השונות לא יצליחו להפיק תוכן משכנע בשימוש בבינה המלאכותית, הן יוכלו למצוא לה שימושים אחרים. את זאת אנו יודעים מדיווח קודם של OpenAI, עוד מתחילת 2024, ובו זוהו חמש קבוצות המקושרות למדינות ומבצעות פריצות-סייבר. שתיים שמקושרות לסין, ואחת לאיראן, לצפון קוריאה ולרוסיה.
הקבוצות השתמשו ב- ChatGPT כדי לכתוב קוד ולאתר בעיות בקוד קיים, לבצע מחקר טכני, להפיק תוכן למטרות פישינג ואפילו לקבלת עזרה במחקר על פרוטוקולי תקשורת לוויינים וטכנולוגיות דימות מרחוק. בקיצור, אם תמיד שאלתם את עצמכם מה טרוריסטים יוכלו לעשות עם ChatGPT, אתם יכולים להפסיק לתהות: הם עושים את זה כבר עכשיו.
ועכשיו נותרה רק שאלה אחת: מה אנחנו צריכים לעשות?
לאן הולכים מכאן?
לפני שנה בערך, יצרה איתי חברה קשר בפחד גדול. היא קראה טור דעה לפיו כל פדופיל יכול כיום לשכפל את פניו של כל ילד לפי התמונות שלו מהמדיה החברתית, להפוך אותו לאווטאר בזום, וכך לדבר עם ילדים ולהפיל אותם בפח.
“מה לעשות?!” שאלה בחשש, “אני צריכה להגיד לילדים שלי להוריד את כל התמונות שלהם מהאינטרנט? מהווטסאפ? מכל מקום? להוריד גם את התמונות שלי?”
הרגעתי אותה בחיוך שהטכנולוגיה לא יכולה לאפשר לנו לעשות דבר כזה עדיין, ושלפחות לכרגע – היא יכולה להירגע. עברה שנה, והנה הופיעה המצאה חדשה שמאפשרת לעשות live deep fake: כלומר, לשנות את הפנים שלך במהלך שיחת זום, כדי שייראו כמו פניו של אדם אחר. וזאת על סמך תמונה אחת בלבד של אותו אדם.
יידעתי את חברתי על הפיתוח החדש, וספגתי בשנית את אותן שאלות. מה לעשות? האם הילדים שלנו בטוחים? האם מישהו מאיתנו בטוח?
בקיצור, לא.
כאשר הבינה המלאכותית יכולה לעשות עבודה של יוצר-תוכן מיומן בכל שפה, בכל תרבות, עבור כל פושע – לא, אף אחד מאיתנו אינו בטוח מהשפעתה.
כאשר הבינה המלאכתית יכולה לייצר סרטונים שנראים אמינים במבט ראשון – אף אחד מאיתנו אינו בטוח.
כאשר הבינה המלאכותית יכולה לקטוף תמונה אחת של ילד, נערה, אשה או סבא, ולהפוך את אותה התמונה לסרטון שלם למבוגרים-בלבד – אף אחד מאיתנו אינו בטוח.
אבל זה לא אומר שהכל אבוד. אנחנו פשוט צריכים להקפיד על אימוץ דרכי חשיבה זהירות וביקורתיות יותר. אנחנו צריכים להיזהר הרבה יותר בכל פעם שמבקשים מאיתנו מידע ברשת. אנחנו צריכים ללמוד שלא להאמין למידע בקלות, ובוודאי שלא להעביר אותו הלאה, אלא אם הוא קיבל אימות מכמה גורמים לא-תלויים ואמינים שונים. ואנחנו צריכים להבין שכולם – גם מהצד שמזדהה כ- ‘שלנו’ – מנסים להפעיל עלינו מניפולציות, ויהיה להם יותר ויותר קל לעשות זאת. ולכן עלינו להיזהר, להישמר – ולחנך את ילדינו להיזהר כפליים.
במקביל, אנחנו צריכים לוודא שהמחוקקים שלנו מוכנים לעתיד הזה. גוגל, OpenAI, מיקרוסופט וחברות הענק האחרות עושות עבודה יפה בהתחקות אחר קבוצות סייבר והשפעה ובעצירתן. גם הממשלות מפעילות מערכים וחילות כדי להתמודד עם התופעה, כראוי. אבל ככל שהקבוצות הללו יהפכו לחזקות יותר בזכות הבינה המלאכותית, כך יהיה צורך להשקיע יותר משאבים ותשומת לב מצד המדינה.
האם נעמוד באתגר? זה תלוי בכולנו. אנחנו צריכים לגלות אחריות חברתית משותפת, לא לשתף מידע שיש חשש שהוא כוזב, ללמד את ילדינו את רזי הקיום בעולם הדיגיטלי החדש, ולדרוש מנציגי הציבור שלנו להגן עלינו.
זה לא סוף העולם, אבל זה בהחלט סופו של עולם קודם ופשוט יותר, בו המשפט “אני לא מאמין לשום דבר שאני שומע, ורק לחצי ממה שאני רואה” כבר אינו זהיר מספיק. הוא צריך להתחלף ב- “אני לא מאמין לשום דבר בלי לחשוב.”
ותחשבו על זה.
עוד בנושא באתר הידען:
- אילון מאסק, סטיב ווזניאק ורבים נוספים במכתב פתוח: בינה מלאכותית חזקה מסוכנת לדמוקרטיה
- אנבידיה סייעה באימון ChatGPT באמצעות 30 אלף מעבדים גרפיים
- האם אתה רובוט? אנתרופולוג לשוני מסביר איך בני אדם הם כמו ChatGPT – שניהם ממחזרים שפה
- סם אלטמן, מנכ”ל OpenAI – המפתח של ChatGPT חתם על מכתב פתוח חדש המתריע מפני סכנות הבינה המלאכותית
- מה אפשר ללמוד מ-ChatGPT על להיות בן אדם