top of page
Search

סקירה בנושא אסטרטגיות רגולציה של סיכוני מודלי יסוד של בינה מלאכותית



נכתב כסמינר במסגרת קורס:אסטרטגיות ברגולציית סיכונים: בריאות, צרכנות וסביבה

מרצה-  ד״ר רונית ג׳וסטו חנני

מגישה-  טל שריג אברהם 

 

 

 

 

מבוא

התפתחות הבינה המלאכותית מקבילה לשינויים טכנולוגיים היסטוריים כמו רשת החשמל או האינטרנט,במידה שהיא משנה את המציאות ומובלת על ידי מספר מצומצם של שחקנים בתעשיה. בדומה לאותם רגעים היסטוריים, גם כיום מדובר בנקודת מפנה משמעותית בהתפתחות החברה האנושית הדורשת ניהול סיכונים ומדיניות ברורה. בעבודה זו אתמקד במודלי יסוד, שהם מערכות בינה מלאכותית גדולות, המבוססות על היקף נתונים עצום, בעלות אלגוריתמים מורכבים וחומרה חזקה המאפשרת כוח חישובי אדיר.בניגוד לתוכנות מדורות קודמים, מערכות אלו אינן נזקקות לפיקוח אנושי לצורך השלמת רוב משימותיהן, והאלגוריתמיקה שלהן מסובכת כל כך עד כדי כך שגם המפתחים עצמם אינם מסוגלים להבין במלואו את אופן קבלת ההחלטות.                                                       

מודלים אלה משמשים כתשתית לפיתוח מוצרים טכנולוגיים רבים ולאור התכונות היחודיות שלהן, הן מחייבות את הרגולטור להבין לעומק את הסיכונים הגלומים בהם ולספק מענה הולם (Bommasani et al., 2021; European Commission, 2024).בלב המהפכה עולמית עומדים שמונה שחקנים עיקרים, Wu Dao ‏(BAAI),‏ ERNIE ‏(Baidu),‏ Qwen ‏(Alibaba) ו־DeepSeek ‏(DeepSeek) בסין, ו־Gemini ‏(Google),‏ GPT ‏(OpenAI),‏ LLaMA ‏(Meta) ו־Claude ‏(Anthropic) בארצות הברית.                                                                          

מספר השחקנים המצומצם נובע מהעלויות הקבועות העצומות הדרושות ליצירת מודל יסוד. העלויות כוללות כוח אדם קשה לאיתור ויקר, תשתיות תקשורת, חישוב וניהול מידע.  בהיעדר רגולציה אפקטיבית או תמריצים לשיפור, מיעוט השחקנים עשוי לנצל את כוחו ליצירת חסמי כניסה, הגבלת היצע או הפחתת השקעה באיכות המוצר.(Bommasani et al., 2021).  הלובי של השחקנים על הרגולציה בארצות הברית ואירופה עשוי להשפיע במידה מוגזמת על הרגולציה ולפגוע באינטרס הציבורי.                                                                                 

 העובדה שהשחקנים המרכזיים מרוכזים בשתי מעצמות, ארצות הברית וסין, בעלות גישות רגולטוריות וערכיות שונות בתכלית,גוררת אתגר גיאופוליטי ומקשה על רגולטורים במדינות קטנות שבהן החברות אינן רשומות להתאים את הרגולציה לערכים ולחקיקה המקומיים.לצד הסיכונים הכלכליים והגיאו פוליטיים, יש גם סיכוני אבטחת מידע ותשתית, ובראשם ריכוז השליטה בייצור ותפעול שבבים ושרתי ענן בידי מספר מצומצם של חברות פרטיות ומדינות.                                                                                                                                               

ככל רגולציה, רגולציית בינה מלאכותית היא תוצר של אינטראקציה בין שיקולים טכנולוגיים, כלכליים, פוליטיים הרגולציה משלבת הערכת סיכונים ומושפעת על ידי ממשלות ,תעשייה וארגוני חברה אזרחית. לצד אלה, קיימות גם מסגרות אתיות בינלאומיות לא־מחייבות של גופים כמו ה־OECD, יונסק"ו, GPAI ו־ISO, המנסחות עקרונות לשימוש אחראי ב־AI. אף שאינן מחייבות משפטית, הן בסיס חשוב לעיצוב רגולציה מחייבת במדינות שונות בינהן ישראל.

בחרתי להתמקד בסיכונים המרכזיים הייחודיים של מודלי יסוד: פרטיות, ניהול מידע, זכויות יוצרים, וסיכונים הקשורים ביכולת המודלים להניע פעולה אנושית לא רצויה כמו פריצת תגמול וחקירה לא בטוחה. בשל מגבלות היקף העבודה לא אתייחס לתחום של בינה מלאכותית יוצרת, להבטים מונופוליסטים כלכלים , ללובי והשפעות אחרות של המודלים על הכלכלה העולמית ,אף שהם חשובים ונותחו בהרחבה בספרות. אבדוק כיצד באיחוד האירופי , ארצות הברית, וסין מתמודדים עם הסיכונים היחודיים, תוך הדגשת ההבדלים בגישות. בנספח לעבודה אבחן את הרגולציה הכללית על בינה מלאכותית בישראל  שנמצאת בתחילת דרכה ואציע מספר המלצות למקבלי ההחלטות.

סקירת הסיכונים

למערכות לומדות יש יתרון  על בני אדם בכך שהן מסוגלות להבין ולהניע התנהגות אנושית במידה חסרת תקדים.הן עשויות ללמוד דרכים לנצל את החולשות של המשתמשים ולגרום להם להתנהג בדרכים מסוכנות ולא מוסריות, גם אם אין זו כוונת המפתחים. (Gorman, R., & Armstrong, S. 2022)ההיסטוריה מראה כי  מודלי יסוד עשויים להוביל בני אדם להתנהגויות מסוכנות במנגנונים של פריצת תגמול או חקירה לא בטוחה.כמו כן המודלים עשויים לפגוע בזכויות אדם נוספות, זכות לפרטיות, שוויון הזדמנויות ואיסור הפליה, וזכויות יוצרים.ויש להם סיכונים נוספים שנובעים מאופי קבלת ההחלטות שלהם.

פריצת תגמול  מתרחשת כשהמודל מצליח לממש את פונקציית המטרה הפורמלית שלו, בדרכים שחורגות מהתכנון ועשויות להוביל לתוצאות בלתי רצויות ומזיקות :ערכית, מוסרית, כלכלית או חברתית.למשל מודלים לשיחה שהונחו לשוחח ארוכות עם המשתמשים, השתמשו באמפתיה מוגזמת , חיזוקים חיוביים מוגזמים, חיזוק רגשות שליליים,או חשיפת קטינים לתוכן מיני. בטקסס נידונה כעת תביעות כנגד התוכנה character ai ,לאחר שהמודל המליץ לנער להתאבד או לפגוע בהוריו (Jasnow,2025). במקרה מוקדם יותר , כדי להגדיל משך צפיה, מודל המלצות התוכן של יוטיוב הפיץ דיסאינפורמציה אודות חיסונים בתקופת הקורונה Li, H. O. et al,) 2022).

חקירה לא בטוחה האלגוריתם לומד על הסביבה באמצעות טעייה וניסוי, במידה ואין לו מגבלות מספקות או פיקוח הוא עשוי לבצע פעולות מסוכנות, בלתי צפויות או בלתי הפיכות. כך מערכת ההמלצות של פייסבוק בבורמה שאינה מודל יסוד, אך מדגים את הסיכון במערכת שיתבטא ביתר שאת במודלי יסוד, הביאה לפרץ אלימות ומשבר הומניטרי חמור בבורמה . האלגוריתם שתוגמל על עידוד שיתופים ולייקים ממשתמשים, "גילה" שתכנים מסיתים נגד מיעוטים יוצרים מעורבות גבוהה , ולכן קידם אותם בהיקף נרחב. כשלי הפיקוח ,דובר בורמזית אחד בלבד למיליוני משתמשים, והעדר אפשרות לדווח על תוכן בעייתי במוצר בבורמה בשל החלטות מוצריות של המפתחים, הביאו לטרגדיה (Mozur, 2018; Pasquetto et al., 2020, Wynn-Williams, 2025). מכאן החשיבות של מנגנוני בטיחות, בקרה אנושית והתווית גבולות פעולה,ערכים ומוסרים, ברורים בעת פיתוח ושימוש במודלים.

פגיעה בזכות לפרטיות מודלי יסוד מאומנים על  כמויות עצומות של מידע ממגוון מקורות, ממידע ציבורי הזמין ברשת, מאגרי נתונים מסחריים ועד מידע רגיש ממוסדות ממשלתיים או בריאותיים, לא תמיד בידיעה או הסכמה של מוסר המידע. במודלים של חברות פרטיות, הסיכון  לדליפות מידע לא רצויות מתגבר בשל הגישה למידע רגיש, חוסר השקיפות לגבי מקורות הדאטה ותהליך האימון, והיעדר מנגנוני פיקוח אפקטיביים.מחקרים הראו כי אפשר ״לשחזר" מידע פרטי שמקורו בנתוני האימון של מודל (כולל מידע פיננסי, אימייל ורפואי) גם בניגוד לכוונת המפתחים. לכן יש חובה בביסוס עקרונות מחייבים של שקיפות, מזעור נתונים , התייחסות לנושא הפרטיות בשלבי אפיון ופיתוח ראשוניים של המודל-privacy by design ,והגבלת גישה למידע אישי בעת יישום מודלים אלה.

פגיעה בזכות לשוויון הזדמנויות מודלי יסוד עלולים להנציח סטריאוטיפים ואפליה מסוגים שונים במקרים רבים וליצור סיכונים משפטים ומוסרים . מאחר והם מאומנים על כמויות עצומות של מידע  לא מתוייג או מנוהל. הם עשויים להפנים ולהנציח הטיות הקיימות במידע. בעבר , מודלי יצירת תמונה כדוגמת DALL·E ו־Stable Diffusion שהתבקשו לייצר תמונות של "מנכ״ל" או "מהנדס" הציגו לרוב גברים לבנים, ואילו בבקשות ל"אחות" או "גננת" הציגו בעיקר נשים (Birhane et al., 2021; Cho et al., 2023). מחקרים נוספים מצביעים על כך שמודלים לשפה טבעית, כמו GPT-3, השתמשו  בעבר בסטריאוטיפים מגדריים ואתניים כחלק מהשיח (Sheng et al., 2019). בשנים האחרונותף החברות משקיעות מאמץ רב הן בשל הרגולציה והן בשל המבוכה הציבורית שנוצרת כאשר התקשורת מציגה תוצרים בעייתיים[1] במיוחד(  Grant 2024, Gengler et al. 2025). ההטיות אלה אינן מוגבלות למודלים עצמם: ישומים שלהם,כגון כלי לסינון קורות חיים או מערכות דירוג אשראי, עשויים להיות מוטים באותה מידה, להעריך בחסר קורות חיים של נשים או מועמדים ממוצא מסוים, להעריך ביתר סיכון פיננסי למיעוטים גם כאשר ללא קשר לנתונים האובייקטיבים (Barocas et al., 2019) זאת בניגוד לחוקי איסור הפליה ולפגוע בשוויון הזדמנויות.

זכויות יוצרים עשויות להיפגע כאשר מודלי יסוד מאומנים על תכנים מוגנים ללא רישיון מתאים, או כשהם מייצרים תוצרים המשחזרים ביטויים יצירתיים מוגנים. השימוש במאגרי מידע גדולים, ולא תמיד ברשיון או מתוייגים, מקשה על שליטה ובקרה על המקורות, ויוצר סיכון משפטי הן למפתחי המודלים והן למשתמשים בהם.  ואכן הוגשו תביעות שהוגשו נגד חברות כמו OpenAI ו־Stability AI  בטענה שהעתיקו אלמנטים מקוריים מתוך נתוני האימון, באופן העלול להיחשב כהפרה ישירה של זכויות יוצרים (Lindberg, 2024).

בנוסף על כל הסיכונים שהוזכרו , עצם העבודה שקבלת ההחלטות של המודלים היא סוג של קופסא שחורה, מקשה על שקיפות, הסברתיות (שיתוף המשתמש בתהליך קבלת ההחלטות) ולקיחת אחריות על נזקים פוטנציאליים.  חוסר השקיפות מקשה לאתר הטיות ושגיאות. הוא מונע מהציבור ומהרגולטורים להבין או לאתגר החלטות של המערכת, ועלול לאפשר למפתחים ולמפעילים להתנער מאחריות במקרה של נזק.

גישות ברגולציה על מודלי יסוד של בינה מלאכותית


בחרתי להשוות 3 גישות שונות של רגולציה על מודלי יסוד ולבחון את המצב בישראל  כדי לגבש בהמשך המלצות מדיניות לישראל . בעבודה זו אתמקד בארצות הברית ובסין, כמובילות חדשנות עולמית בתחום. מולם אבחן את האיחוד האירופי שאמנם אינו מוביל בחדשנות טכנולוגית, אך בהחלט מוביל ברגולציה עליה. האיגוד מצא דרך לשמור על ריבונות דיגיטלית גם מול חברות טכנולוגיה זרות.האירופאים למדו מניסיון כיצד כוח רב שצובר מידע על האזרחים עשוי להשחית וחוששים מאוד מהכוח העצום של מודל היסוד  (Harari, 2024).


האיחוד האירופי מאזן בין הגנה על הפרט לעידוד חדשנות אחראית ושמירה על ריבונות דיגיטלית


האיחוד האירופי הוא החלוץ העולמי ברגולציה של בינה מלאכותית, עם חקיקת ה־AI Act שאושרה בשנת 2024 (European Parliament and Council, 2024). הרגולציה מבוססת סיכון ומבחינה בין רמות סיכון שונות של מערכות בינה מלאכותית (נמוך, גבוה, בלתי קביל) ומחייבת חובות מותאמות לכל רמה (Veale & Borgesius, 2021). המטרה היא להגן על זכויות יסוד, לצמצם שימושים מזיקים ולהבטיח אמון הציבור, תוך ניסיון להתגמש ולאפשר חדשנות בעתיד, עם התפתחות הטכנולוגיה,בעזרת ישום הגדרתי ואיטי של הרגולציה לאורך מספר שנים, למעשה כלל סעיפיו צפויים להיות מחייבים רק באוגוסט 2027, מה שמשאיר מקום לגמישות והתאמה.החקיקה בתחום כמו בתחומי חדשנות אחרים היא תוצאה של משא ומתן רב משתתפים הכולל את המדינות החברות באיחוד, ארגוני חברה אזרחית ולובי של חברות הטכנולוגיה (2022 .Justo-Hanani, R).

במסגרת ה־AI Act, מודלי יסוד מוגדרים כתת־קטגוריה של מודלי בינה מלאכותית כלליים (General-Purpose AI Models -GPAI), ומקבלים התייחסות כבעלי "סיכון מערכתי" (Systemic Risk GPAI)הרגולטור מכיר בחשיבות מודלי היסוד, כתשתית טכנולוגית קריטית, אך מבין את הסיכונים שלהם, בינהם פריצות תגמול וחקירה לא בטוחה(OpenFuture, 2024) מצד שני החוק מקל על את הרגולציה על מודלים פחות חזקים ובכך מאפשר חדשנות בסיכון נמוך יותר.                                                                                                        

מודלי יסוד, שהגדרו כסיכון מערכתי חשופים לרגולציה קפדנית, נדרשת שקיפות במקורות הנתונים, תיעוד תהליך האימון, הערכת סיכונים שיטתית, ניטור שוטף של התנהגות המודל, והצבת גבולות תפעוליים שימנעו תוצאות מזיקות. בנוסף על כך קיימת חובה להסביר פלטים לרגולטור ולמשתמש ולסמן בבירור תוכן שנוצר על ידי ai. האחריות לנזקים חלה במשותף על מפתחי ומפעילי המערכת, בהתאם לרמת הסיכון.                                  


ה־AI Act משולב באופן הדוק עם מסגרת ה־GDPR להגנת פרטיות, ומאמץ את עקרונות דומים של מזעור נתונים,הגבלת איסוף והסכמה מדעת. במיוחד החוק מגביל איסוף רחב של נתונים ביומטריים,  ואוסר לחלוטין שימושים המנוגדים לערכי היסוד של האיחוד, כמו מערכות לניקוד חברתי שלילי או טכנולוגיות לזיהוי רגשות במקומות עבודה ובמערכת החינוך.  


בתחום זכויות היוצרים, החוק מחייב מודלי יסוד ליישם מנגנונים המבטיחים עמידה בהגנות קיימות, לרבות הכרה בזכות ה־opt-out של בעלי זכויות לפי סעיף 4(3) של דירקטיבת זכויות היוצרים (CDSMD). בנוסף קיימת חובת שקיפות, על המפתחים לפרסם סיכום של התכנים ששימשו לאימון המודל, ובעתיד  יפעלו לפי קוד התנהגות ייעודי (Code of Practice) שנמצא בפיתוח (European Commission, 2024).                                               

  במקביל ה AI ACT  יוצר סביבה שמטרתה לאפשר חדשנות אחראית על ידי, ארגזי חול רגולטוריים: סביבות ניסוי מבוקרות המאפשרות לחברות לפתח מערכות AI חדשניות תחת פיקוח, אך ללא חשש מקנסות.האיחוד גם מממן פיתוח AI מקומי במסגרת תוכנית  Horizon Europe  כדי לעודד חדשנות מקומית שתוריד את התלות בחברות זרות. האיחוד האירופאי השקיע כ 100-120 מיליון דולר בבינה מלאכותית  בחמש השנים האחרונות וצפוי להכפיל את ההשקעה בחמש השנים הבאות (דוח ועדת נגל, 2025).                                                                                

הכוח הצרכני של תושבי האיחוד מביא לכך שמודלים ומערכות שפותחו מחוץ לאירופה המעוניינים לפעול בשוק האירופאי חייבים להתאים את עצמם לרגולציה. בכך נוצרת השפעה רגולטורית גלובלית. אכיפת החוק מתבצעת ברמה הלאומית על ידי רשויות הפיקוח במדינות החברות, בשיתוף פעולה עם מוסדות האיחוד, ועשויה לכלול קנסות כבדים ביותר על הפרות.גישה זו שואפת לאזן בין פיתוח טכנולוגי לבין הגנה על הציבור, ומספקת מודל רגולטורי שיכול לשמש השראה למדינות אחרות בהתמודדות עם מודלי יסוד.


ארצות הברית ,רגולציה וולונטרית, מבוזרת ומקדמת חדשנות


בארצות הברית, בניגוד לאיחוד האירופי, אין כיום חקיקה פדרלית מחייבת להסדרת פיתוח ושימוש בבינה מלאכותית. הגישה האמריקאית נשענת על שילוב של רגולציה וולונטרית מבוזרת, מרובת שחקנים, מסגרות סקטוריאליות לפי תחום, ואחריות תאגידית, תוך מתן עדיפות לחדשנות ולשמירה על יתרון טכנולוגי עולמי (Cath & Runciman, 2024). למעשה החוק  הפדרלי היחיד שמתייחס ל AI הוא חוק שמתייחס לעידוד חדשנות ובינה מלאכותית  (U.S congress, 2022) .המדינה השקיעה בתחום הבינה המלאכותית בחמש השנים האחרונות סכום של כ 400 מיליארד דולר וצפויה להגדיל את ההשקעה לפחות בחמישים אחוז בחמש השנים הבאות.            מסמך המדיניות המרכזי הוא צו נשיאותי 14110 (2023) שמחייב את גופי הממשל אך לא את התעשיה מעבר לקביעת נורמות. הצו מציג עקרונות לפיתוח ושימוש בטוח במודלים רחבי היקף, ובפרט מודלי יסוד. הנחיות מתיייחסות לניהול סיכונים, שקיפות, אחריותיות, הגנה על פרטיות, ובדיקות מקדימות בפורמט של מתקפה מקדימה וביקרותיתֿ, red teaming, לפני שחרור מערכות לציבור. (White House, 2023). מעניין שבצו לא מוזכר נושא של שקיפות על מקורות הנתונים או תהליך קבלת ההחלטות של הבינה וגם אין חובה לספק הסברים למשתמשים על התוצאות , זו נשארת כהמלצה בלבד.האחריות לנזקים נקבעת לפי דין מדינתי או חוזים פרטיים.           

היבטי ניהול הסיכונים זוכים להתייחסות עמוקה יותר ב AI Risk Management Framework של מכון התקנים האמריקאי (NIST, 2023). המסמך ממליץ על הגדרת גבולות פעולה, שימוש בסימולציות ומודלים סינתטיים לפי שחרור מודלים לעולם האמיתי ניטור שוטף של תפקוד המודלים, ובקרה על פונקציות תגמול כדי לצמצם סיכונים של פריצת תגמול וחקירה לא בטוחה  מעניין שהצו הנשיאותי עצמו לא מזכיר במפורש את הסיכונים האלו, הם מתוארים כמצבים של "unintended behavior" או "misaligned objectives". יש הנחיה להמנע מניקוד חברתי אך אין חובה כזו.בניגוד לאירופה, בארצות הברית פרטיות אינה מוכרת כזכות יסוד ואין חוק פדרלי כולל דוגמת ה־GDPR. ההגנה על פרטיות מפוצלת לחוקים לענפים השונים, כגון HIPAA בתחום הבריאות ו־FCRA בתחום האשראי, ולמדיניות פרטיות בהסכמים בין ספקים ללקוחות. המשמעות היא שהשימוש במידע ציבורי או חצי־פרטי לצורכי אימון מודלים אינו דורש בהכרח הסכמה מפורשת, כל עוד לא הופרו חוקים והסכמים קיימים.                                                

לעומת זאת, נושא איסור האפליה מקבל התייחסות מפורטת יחסית. ה־NIST וה־White House Office of Science and Technology Policy (OSTP) פרסמו את Blueprint for an AI Bill of Rights, מסמך המגדיר זכויות אזרחיות בהקשר של AI, הכוללות את הזכות לאי־אפליה, הגנה על פרטיות, שקיפות, וזכות להסבר להחלטות אוטומטיות (OSTP, 2022). אלו נועדו למנוע יצירת הטיות מגדריות, אתניות או חברתיות שמודלים עלולים להפנים מנתוני האימון. הם אינם מחייבים והרגולציה המחייבת בארה״ב בינתיים מגיעה דרך חוקים קיימים ,חלקם חוקים של המדינות ולא פדרלים (כמו איסורי אפליה, הגנת פרטיות, זכויות צרכנים) או צווים נשיאותיים ספציפיים, לא דרך ה־AI Bill of Rights עצמו.

ארה"ב רואה ב־AI תחום אסטרטגי ומשקיעה משאבים ניכרים במחקר ופיתוח, תשתיות חישוב, ושיתופי פעולה עם בעלות בריתה כדי להתמודד עם התחרות מול סין. המדינה גם מגבילה שימוש במודלי יסוד סינים בישומים רגישים. ארה״ב פועלת בפורומים כמו ה־G7 וה־OECD לקידום סטנדרטים גלובליים ההולמים ערכי חופש, שקיפות ודמוקרטיה (Allen et al., 2023; U.S. Department of State, 2023).                                           

יש לציין שהרגולציה האמריקאית מושפעת מאוד מלובי חזק של חברות הטכנולוגיה ומקשרי הון שלטון הדוקים בין יזמי הטכנולוגיה לממשל. מצב זה של רגולטור שבוי עשוי להביא לחולשה של הרגולציה ולהתעלם מערכים דמוקרטים חשובים, במידה והרגולציה תעשה ללא שקיפות וללא גופי חברה אזרחית בתהליך.  ( Harvard Law Review, 2025).


סין: גישת "רגולציה סמכותנית" בדגש של יציבות המדינה


בניגוד לגישות במערב, סין מנהלת רגולציה הדוקה במטרה להשיג עליונות טכנולוגית על פני המערב ולשמור על יציבות פוליטית. הרגולציה הסינית מבטיחה שמודלי ה-AI יתיישרו עם ערכי המדינה והנרטיב הרשמי.(Laskai & Webster, 2019; CAC, 2023). ברוב המקרים הרגולציה מחייבת את ספקיות הטכנולוגיה לתת דין וחשבון לממשל ופחות קפדנית ביחסי החברות והאזרחים.בהיבטי שקיפות, סין מחייבת פלטפורמות בינה מלאכותית לפרסם מידע על מקורות הנתונים, שיטות האימון ומאפייני המודלים, אך החובה מתמקדת בעיקר ביחסים מול הרגולטור ולא מול הציבור הרחב.כך גם לגבי הדרישה להסברתיות,במיוחד במקרים בעלי השפעה ציבורית או משפטית, אך ההסבר נבחן בעיקר ביחס להתאמה למדיניות. האחריות לנזקים מוטלת על מפעילי ומפתחי המערכות, עם אפשרות להטלת סנקציות מנהליות, קנסות גבוהים ואף הגבלות פעילות, במקרה של פגיעה בביטחון הלאומי, בסדר הציבורי או בזכויות אזרחיות כפי שהן מוגדרות בחוק הסיני.                                        בניגוד למערב, שבו מניעת הטיה מתמקדת בהבטחת שוויון ואי־אפליה בין קבוצות, בסין המושג כולל גם סינון אידאולוגי של נתונים ותוצרים. הפחתת ההטיות כאן לא נועדה להגן על השיוויון בלבד, אלא גם למניעת הפצת תכנים שמאיימים על הסדר החברתי. חקיקה ותקנים דורשים כי מערכות AI יעמדו בסטנדרטים של אבטחת נתונים, הגנה על קניין רוחני ומניעת דליפות, לצד חובת סימון לתוכן שנוצר בבינה מלאכותית. מטרות אלו נתפסות כחלק ממדיניות רחבה של שליטה במרחב הדיגיטלי (SAMR & SAC, 2025).                                                        גם בתחום הפרטיות, ההגנה בסין מוגבלת בעיקר ליחסים בין אזרחים וגופים פרטיים, ומבוססת על חוקי הגנת מידע אישיים (PIPL, 2021). אין הכרה בפרטיות כזכות אדם ביחסי אזרח והמדינה,למדינה סמכויות נרחבות לאיסוף ושימוש בנתונים לצרכי ביטחון, פיקוח וניהול כלכלי. במודלים רחבי־היקף, הפיקוח מתמקד בציות לכללי סינון ורישוי ולא בהגבלת היקף המידע האישי או בשקיפות תהליך האימון לציבור (Creemers, 2022).                      הגישה הסינית לזכויות יוצרים מקדמת את האינטרס התעשייתי הלאומי על חשבון אינטרסים של גופים פרטים. פסקי דין עדכניים קבעו כי מבנה ופרמטרים של מודלי AI מוגנים תחת חוקי תחרות לא הוגנת ולא תחת דיני זכויות יוצרים, מה שמקל על שימוש במאגרים רחבים של תוכן לצורכי אימון, ומצמצם את הסיכון המשפטי למפתחים (Beijing IP Court, 2025). בכך, סין יוצרת סביבה שמעודדת שימוש חופשי יותר בנתונים קיימים לצורכי פיתוח.המגבלות הרגולטוריות והפוליטיות בסין יצרו "חומת סינית" דיגיטלית שמונעת מחברות מערביות לפעול בשוק זה. כך חברות טכנולוגיה סיניות זוכות להשתמש במידע בקלות יחסית, להשתלט על השוק המקומי ללא תחרות, ומצליחות להתמודד עם החברות האמריקאיות בשוק הבינלאומי.


מסקנות והמלצות מדיניות


מרתק לבחון איך הרגולציה משקפת את הערכים והנורמות במדינות, ומושפעת מגורמים היסטורים ומלובי פוליטי. ערכי החברה משתקפים בסיכונים אותן בוחרת המדיניות לנהל ובדרך בה היא תתמודד איתן. לא כל הזכויות מוכרות באותה דרך באיזורים השונים, כך למשל הזכות לפרטיות באירופה היא חשובה מאוד, אך לא קיימת כזכות פדרלית בארצות הברית ובסין קיימת ביחסי האזרח עם  גופים פרטים אך במידה נמוכה בהרבה מול המדינה. יש הבדלים גדולים גם בגישה לזכויות יוצרים ובדיני הנזיקין באיזורים השונים.           


מאפייני גישה

סין

ארצות הברית

האיחוד האירופי

אופי הרגולציה

מחייבת ומפוקחת

וולונטרית ומבוזרת

מחייבת ומקיפה

גישה לפרטיות

הגנה מוגבלת מאוד מול המדינה, הגנה מול גופים פרטים

הגנה מוגבלת להסכמים מול צרכנים וחקיקה מדינתית

הגנה חזקה ומקיפה

זכויות יוצרים

הגנה על האינטרס הלאומי

פרשנות רחבה ל"שימוש הוגן"

הגנה על יוצרים וזכות opt-out

אחריות על נזקים

אחריות מחמירה

רגולציה עצמית וולונטרית

אחריות מוגדרת ומשותפת

ערכים מרכזיים

יציבות, ביטחון לאומי

חדשנות, שוק חופשי

זכויות אדם, אתיקה


הגישה האירופאית, מתעדפת את זכויות הפרט,כהשתקפות של טראומות היסטוריות של מלחמות ודיקטטורות מהמאה ה-20 (Harari,2024).האיחוד חושש לא רק מפיקוח ממשלתי אלא גם מפעילות חברות זרות בעלות כוח עצום שעשויות לפגוע בריבונות הדיגיטלית שלו. במקביל הוא מצליח להשאיר מקום לחדשנות וגמישות.                 הגישה האמריקאית, בהתאם למסורת רבת שנים של התערבות ממשלתית נמוכה ועידוד חדשנות, מתייחסת בחקיקה בעיקר לנושא החדשנות . לגבי שאר הסיכונים הרגולציה מתבססת על הנחיות  פחות מחייבות, כצו נשיאותי הנחיות מכון התקנים האמריקאי,  ורגולציה עצמית ומפזרת את הסמכות הרגולטורית לבתי משפט ולהסכמים בין הצרכן לעסק. החקיקה מוגבלת לענפים רגישים כמו בריאות או פיננסים.                                         לעומת המערב, סין רואה בבינה מלאכותית מנוף לעליונות טכנולוגית גלובלית, ולכן היא מקדמת חדשנות אגרסיבית. עם זאת, קידום זה מתבצע במסגרת שאינה מאיימת על השלטון והיציבות החברתית. והיא אף משתמשת באמצעים קיצונים כניקוד חברתי שמנוגדים לערכים מערבים של זכויות אדם.                           


במקביל גופים בינלאומים יוצרים סטנדרטים שמהווים השראה לרגולציה במדינות קטנות יותר. בישראל מסמך המדיניות בנושא ה ai אכן מציין את הגופים הללו כבסיס ליצירת הרגולציה המקומית, ראי דיון בה בנספח א.

האתגר העיקרי של הרגולטור הישראלי הוא להתחשב ברגולציה העולמית ולאפשר לישראל לשמור על מעמדה כמובילת חדשנות עולמית, אך להגן במקביל על זכויות האזרחים ולנהל את הסיכונים. חשוב שהרגולטור יתחייס לסטנדרטים אירופאים כדי  שחברות טכנולוגיה ישראליות יוכלו לייצא לאיחוד האירופי. מצד שני, ארצות הברית היא שוק חשוב נוסף של לקוחות וגם מקור מהותי להשקעות הון ומקומות עבודה בישראל, כך שהרגולציה צריכה להיות מספיק גמישה לאפשר קשרים טובים עם השוק החשוב הזה. העבודה מול השוק הסיני צריכה להיות זהירה ולוודא שמידע וזכויות יוצרים של שחקנים ישראלים נשמרים. קובעי המדיניות בישראל צריכים לבנות מערך רגולטורי מבוסס סיכונים אך מעודד חדשנות, ורצוי שיעשו זאת בהקדם שישראל לא תוותר מאחור.



נספח א-  רגולציית AI בישראל: מסמכי עקרונות והשענות על חקיקה ותיקה

נכון ל־2025, בישראל אין רגולציה מקיפה ומחייבת למודלי יסוד, והמדיניות נשענת על מסמכי עקרונות והנחיות לא־מחייבות בנושא בינה מלאכותית. בדצמבר 2023 פורסם מסמך מדיניות ממשלתי ראשון בתחום הבינה המלאכותית, בהובלת משרד החדשנות, המדע והטכנולוגיה, הקובע עקרונות אתיים ושאיפה ליישור קו עם סטנדרטים בינלאומיים, במיוחד של האיחוד האירופי וארגונים כגון OECD, GPAI ו־UNESCO. המסמך מצהיר על רגולציה שתהיה גמישה, מבוססת סיכונים  בדומה לאירופה מחד, ומאידך שתהיה מותאמת לסקטורים שונים ולא אחידה על פני כלל התחומים שלא כמו באירופה.המסמך הזה, שמהווה נקודת התחלה חשובה, נשען על חוקים קיימים כמו חוק הגנת הפרטיות (1981) , חוקי שימוש הוגן בזכויות יוצרים וחוק הגנת הצרכן ,אך חסר מנגנוני אכיפה, לוחות זמנים ברורים או מענה לסיכונים ייחודיים כמו פריצת תגמול וחקירה לא בטוחה.

פרסום דוח  ועדת נגל באוגוסט 2025  מצביע על  הפערים וההזדמנויות למדיניות הישראלית. ועדת נגל התמקדה בעיקר באתגרים האסטרטגיים ובהשקעות העצומות הנדרשות, וציינה כי ישראל נמצאת במצב "מטריד" בתחום ומציין את הקפאון הרגולטורי וההשפעה שלו על היכולות של השוק הישראלי לעמוד בתחרות עם העולם.

הועדה מצביע על המתח בין הצורך בהקמת גוף מתכלל שיחבר את משרדי הממשלה ובין המחיר של יצירת שכבת רגולציה נוספת.  הפתרון שהיא מציעה הוא הקמת גוף מתכלל קטן אך איכותי,עם צוות מצומצם שמקבל שכר תחרותי שיעודד מומחים מהשוק הפרטי לעבור לשירות הציבורי. בהקשר לרגולציה עצמה, הועדה מציעה לחדש את חוקי הפרטיות .לאפשר שימוש גמיש יותר במידע לטובת אימון מודלי AI ולא לפסול שימוש בפתרונות ענן מאובטחים גם מחוץ לישראל. הועדה רואה את הצורך באחריות נזיקית מותנית בעמידה בדרישות רגולטוריות, כפי שהתקנות בנושא מכשור וציוד רפואי קובעות, שיספק ודאות משפטית לחברות ויעודד חדשנות.

הועדה רואה בכוח אדם הזדמנות ואתגר ראשון במעלה ומצביעה על הצורך בהגדלת מספר החוקרים בתחום. כמו כן הועדה מדגישה את המחסור בתשתיות מחשוב חזקות בישראל. היא ממליצה  על השקעה מסיבית כדי להקים את התשתית הדרושה, במקביל לכור גרעיני אזרחי שיספק את האנרגיה הדרושה להם.

במאי 2025 התמנה  מר אלמוג כהן לסגן שר לענייני בינה מלאכותית במשרד ראש הממשלה. לשר כהן יש רקע בתפקידים זוטרים במשטרה, במסעדנות ושתדלנות פוליטית אך לא ברור כיצד יפגין מנהיגות מקצועית בתחום כה מורכב.

דוח נגל המליץ על הקמת מכון לאומי לבינה מלאכותית שישמש האב לחיבור בין האקדמיה, התעשייה, מערכת הביטחון והמגזר הציבורי". ועל הקמת "פורום מומחים בין-מגזרי״.

כצעד ראשון אני מציעה להקים מועצת מנהלים למכון כזה  שתכלול מומחים בעלי רקע רלוונטי מהשירות הציבורי, האקדמיה,מערכת המשפט והתעשיה. הוועדה תשאר מעודכנת בחדשנות הטכנולוגית, ותזמין מומחים וגופי חברה אזרחית להציג לה ותתווה את האסטרטגיה של  המכון. מועצת המנהלים הזו תהיה בעלת סמכות לייעץ לממשלה, לכנסת ולגופים הרגולטוריים הקיימים בנושאי רגולציה של בינה מלאכותית. המלצותיה יזכו למעמד מקצועי וציבורי מחייב.

הדו"ח מציע שהמטה הלאומי יכלול "אגף צמיחה, אתיקה ורגולציה" שיתאם בין הרגולטורים הקיימים,אני מציעה שהאגף החדש יהיה מצומצם,יתמקד בתכלול ועבודה מול הרפנרטים במשרדי הממשלה.האחריות הרגולטורית תפוצל בין גופים ממשלתיים קיימים בעלי מומחיות רלוונטית: הרשות הגנת הפרטיות: תקבל סמכויות מורחבות לטפל בכל נושאי איסוף, עיבוד ואימון של נתונים על ידי מודלי AI ותהיה אחראית על הגנה על פרטיות, אנונימיזציה והבטחת שימוש אתי במידע. גוף ממשלתי טכנולוגי  שאינו הרשות לחדשנות (לדוגמה, מערך הסייבר הלאומי או משרד המדע): יהיה אחראי לטיפול בסיכוני ליבה טכניים,פריצת תגמול וחקירה לא בטוחה הוא יפתח פרוטוקולים להערכת סיכונים, בהסתמך על מודלים אירופאים או אמריקאים, ויפקח על מודלים לפני שחרורם לשוק. משרד המשפטים יהיה אחראי על נושא נושאים כללים יותר כזכויות יוצרים, נזיקין וכו׳.

הועדה מציינת את החשיבות ביצירת מאגר מידע ממשלתי אחיד חוצה משרדים. מאגר זה יוכל לשפר את השירות לאזרח ולאחר אנונימיזציה של הנתונים לייצר תשתית חזקה לאימון מודלים.כדי ליישם את ההמלצה אני ממליצה על מינוי מנהל דאטה ובינה מלאכותית , בעל ניסיון והבנה טכנולוגית מעמיקה, בכל משרדי הממשלה שמחזיקים במידע משמעותי בינהם : פנים, תחבורה, בריאות ,ביטחון לאומי, איכות הסביבה, חינוך, אוצר , רווחה, וכלכלה.

הדו"ח מדגיש את הצורך ב"חקיקה" שתעגן את המטה ותקנה לו סמכויות, ומציין שהמטה  דווח לוועדות הכנסת הרלוונטיות" על התקדמותו. אני מסכימה ומציעה ועדה קיימת בכנסת, כדוגמת ועדת המדע והטכנולוגיה, תהיה הגוף הנבחר אחראי לפקח ולקדם חקיקה רלוונטית. הוועדה תהיה רשאית לדרוש דוחות תקופתיים מהוועדה המייעצת ומהפורום הרגולטורי, כדי לוודא עמידה בסטנדרטים וטיפול מתאים באתגרים חדשים.הוועדה תהיה אחראית לקידום חקיקה שתעגן את המנדט, ההרכב וסמכויות הגופים השונים במודל, ותגדיר את יחסי הגומלין ביניהם.

בהקמת מסגרת רגולטורית, על ישראל להביא בחשבון לא רק את צורכי ההגנה על הציבור והחדשנות המקומית, אלא גם את הלחצים הפוליטיים והכלכליים מצד שותפות סחר מרכזיות. יש לאזן בין אימוץ  סטנדרטים בינלאומיים שעשוי להקל על שיתוף פעולה עם האיחוד האירופי ,בצד גמישות שתשמר את החיבור לאקו־סיסטם האמריקאי שאחראי לרוב ההשקעות בטכנולוגיה בישראל ומעסיק אלפי מפתחים במדינה.








ביבליוגרפיה


ספרים

Wynn-Williams, S. (2025). Careless People: A Cautionary Tale of Power, Greed, and Lost Idealism. Macmillan.

Harari, Y. N. (2024). Nexus: A brief history of information networks from the Stone Age to AI. Fern Press.

חקיקה, תקנות ומסמכי מדיניות ישראליים

●      משרד המשפטים. (2023). חוות דעת בנושא שימוש ביצירות מוגנות לאימון כלי בינה מלאכותית. ירושלים: משרד המשפטים.

●      משרד המשפטים ורשות החדשנות. (2023). עקרונות מדיניות , רגולציה ואתיקה בתחום הבינה מלאכותית.

●      רשות להגנת הפרטיות. (2022). הנחיות בנושא העברת מידע אישי לחו"ל.משרד המשפטים.

●      תקנות הגנת הפרטיות (אבטחת מידע), התשע״ז–2017.

●      תקנות ציוד רפואי (ייצור, שיווק או שימוש בציוד רפואי שאינו רשום, או שלא בהתאם לרישומו), התשע"ד  2012


חקיקה ומסמכי מדיניות בינלאומיים

●      CAC. (2023). Interim Administrative Measures for Generative Artificial Intelligence Services. Cyberspace Administration of China.

●      CHIPS and Science Act , 2022

●      European Commission. (2024). Code of Practice on copyright and AI training data. Brussels: European Commission.

●      Dunietz, J. , Tabassi, E. , Latonero, M. and Roberts, K. (2024), A Plan for Global Engagement on AI Standards, NIST Trustworthy and Responsible AI, National Institute of Standards and Technology, Gaithersburg, MD,https://doi.org/10.6028/NIST.AI.100-5, https://tsapps.nist.gov/publication/get_pdf.cfm?pub_id=958389 (Accessed August 11, 2025)

●      European Parliament and Council. (2024). Regulation (EU) 2024/… on artificial intelligence (AI Act). Official Journal of the European Union.

●      National Institute of Standards and Technology. (2023). AI Risk Management Framework (RMF). U.S. Department of Commerce. https://doi.org/10.6028/NIST.AI.100-1

●      Office of Science and Technology Policy. (2022). Blueprint for an AI Bill of Rights: Making automated systems work for the American people. The White House. https://www.whitehouse.gov/ostp/ai-bill-of-rights/

●      OpenFuture. (2024). AI Act Transparency & Template Requirements. OpenFuture. https://openfuture.eu/wp-content/uploads/2024/06/240618AIAtransparency_template_requirements-2.pdf

●      PIPL. (2021). Personal Information Protection Law of the People’s Republic of China. Standing Committee of the National People’s Congress.

●      SAMR & SAC. (2025). National standards for generative AI services. State Administration for Market Regulation & Standardization Administration of China.

●      White House. (2023). Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (Executive Order 14110). 

תקשורת

●      Grant Nico, Google Chatbot’s A.I. Images Put People of Color in Nazi-Era Uniforms, New York Times , 26.2.2024

●      Jasnow Dan (2025), New lawsuits targeting personalized AI chatbots highlight need for AI quality assurance. The National Law Review.  The National Law Review. (2025, Jan 6)

●      Mozur, P. (2018, October 15). A genocide incited on Facebook, with posts from Myanmar’s military. The New York Times. 


פרסומים אקדמיים

●      Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and machine learning: Limitations and opportunities. fairmlbook.org.

●      Beijing IP Court. (2025). Ruling on AI model parameters under Unfair Competition Law. China IP Law Update.

●      Birhane, A., Prabhu, V. U., & Kahembwe, E. (2021). Multimodal datasets: Misogyny, pornography, and malignant stereotypes. arXiv preprint arXiv:2110.01963. https://doi.org/10.48550/arXiv.2110.01963

●      Bommasani, R. et al. (2021). On the opportunities and risks of foundation models. arXiv preprint arXiv:2108.07258.

●      Cath, C., & Runciman, W. (2024). Governing AI in the United States: Balancing innovation and safety. AI and Society. https://doi.org/10.1007/s00146-024-01888-3

●      Cho, J., May, A., & Wang, Y. (2023). DALL-Eval: Probing the capabilities and social biases of text-to-image generation models. arXiv preprint arXiv:2302.10174. https://doi.org/10.48550/arXiv.2302.10174

●      Creemers, R. (2022). China’s social credit system and data governance. In M. Graham & W. Dutton (Eds.), Society and the Internet (pp. 453–470). Oxford University Press.

●      Gengler, E., Hagerer, I., & Gales, A. (2024). Diversity bias in artificial intelligence. In J. Passmore, S. Diller, S. Isaacson, & M. Brantl (Eds.), The digital and AI coaches' handbook (pp. 229–240). Routledge, London. https://doi.org/10.4324/9781003383741-23

●      Harvard Law Review. (2025). Co-Governance and the Future of AI Regulation. Harvard Law Review, 138, 1609-1632.

●      Gorman, R., & Armstrong, S. (2022). The dangers in algorithms learning humans' values and irrationalities. arXiv preprint arXiv:2202.13985.‏

●      Laskai, L., & Webster, G. (2019). Translation: Beijing AI principles. New America. https://www.newamerica.org/cybersecurity-initiative/digichina/blog/translation-beijing-ai-principles

●      Li, H. O., Pastukhova, E., Brandts-Longtin, O., Tan, M. G., & Kirchhof, M. G. (2022). YouTube as a source of misinformation on COVID-19 vaccination: a systematic analysis. BMJ global health, 7(3), e008334. https://doi.org/10.1136/bmjgh-2021-008334

●      Lindberg, Matthew (2024) "Applying Current Copyright Law to Artificial Intelligence Image Generators in the Context of Anderson v. Stability AI, Ltd.," Cybaris®: Vol. 15: Iss. 1, Article 3.

●      Pasquetto, I. V., Swire-Thompson, B., & Broniatowski, D. A. (2020). Tackling misinformation: What researchers could do with social media data. Harvard Kennedy School Misinformation Review, 1(8). https://doi.org/10.37016/mr-2020-49

●      Sheng, E., Chang, K. W., Natarajan, P., & Peng, N. (2019). The woman worked as a babysitter: On biases in language generation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (pp. 3407–3412). Association for Computational Linguistics. https://doi.org/10.18653/v1/D19-1339

●      Veale, M., & Borgesius, F. Z. (2021). Demystifying the Draft EU Artificial Intelligence Act. Computer Law Review International, 22(4), 97–112. https://doi.org/10.9785/cri-2021-220402.Allen, G. C., Chan, T., & Smith, J. (2023). U.S. strategy for global AI leadership. Center for Strategic and International Studies. https://www.csis.org







 
 
 

Recent Posts

See All

Comments


© 2025 by Tal Sarig Avraham.

bottom of page