בעידן הדיגיטלי, טכנולוגיות בינה מלאכותית (AI), ובפרט בינה מלאכותית יוצרת (GAI-Generative AI), הפכו למרכיב מרכזי בפעילותם של חברות רבות (או עובדים בתוך החברה), תוך שילובם במגוון פעילויות, החל מניתוח נתונים, יצירת תכנים, סרטונים ותמונות, דרך אוטומציה של תהליכים עסקיים, ועד לשימוש נרחב בהן בהקשר של פיתוח תוכנה.
לצד היתרונות המובהקים והפוטנציאל הרב הטמון בטכנולוגיות אלו, ניכרים אתגרים משפטיים ואתיים משמעותיים וחשיפה מוגברת לנושאי המשרה הדירקטוריון, המחייבים גישה אחראית ומושכלת מצד ארגונים במטרה למנוע סיכונים אפשריים.
האתגרים המרכזיים בשימוש בטכנולוגיות AI
- הגנה על סודיות מידע, שמירה על מידע אישי והגנה על זכויות קניין רוחני: מערכות AI מבוססות על עיבוד וניתוח מאסיבי של נתונים, הכוללים לעתים קרובות מידע רגיש, אישי, או מסחרי. הזנה בלתי מבוקרת של נתונים על-ידי צוותי החברה עלולה להוביל לחשיפה בלתי רצויה של סודות מסחריים או מידע אישי, ואף לזליגת קניין רוחני – בין אם במישרין ובין אם בעקיפין. מעבר לסיכונים האינהרנטיים הכרוכים בהעלאת מידע כאמור לשירות ענן (ובעיקרם סיכוני דלף מידע, אבטחת מידע ושימוש לרעה במידע), לעיתים החברות המפעילות את הכלים הללו רשאיות מכוח תנאי השירות להשתמש במידע למטרות שונות, לרבות לצורך אימון הכלי וכפועל יוצא מכך עשויות לכלול אותו בתוצרים המופקים לטובת צדדים שלישיים.
- הפרת זכויות קניין רוחני של צדדים שלישיים: מאחר שמערכות AI מבוססות על שימוש במאגרי מידע גדולים, עולה השאלה האם תוצרי השירות שמפיקה הבינה המלאכותית הם פרי יצירה מקורית של הבוט או שהם כוללים חומרים המוגנים בזכויות קניין רוחני (כגון זכויות יוצרים) של צדדים שלישיים. יש להיות מודעים לכך שלבעל זכויות הקניין הרוחני עשויה להיות עילה לתביעה בגין הפרת זכויות, גם כלפי משתמשים שעושים שימוש בתוצרים אלה באופן המפר את זכויותיהם. הסיכון גובר כאשר מדובר בקוד מחשב, ובפרט ביחס לתוצרים העושים שימוש בקוד פתוח, שכן לא תמיד ניתן להבחין אילו חלקים מתוך הקוד הם חלקים מקוריים ואילו הם חלקים הכפופים למגבלות רישוי מצדדים שלישיים. לכן, השימוש במערכות AI יוצרת עשוי להוביל להפרה של זכויות קניין רוחני, דבר העלול לחשוף את החברה להשלכות משפטיות משמעותיות.
- דרישות רגולטוריות ואחריות תאגידית: ברחבי העולם, גופים רגולטוריים פועלים לקידום חקיקה שתסדיר את השימוש בטכנולוגיות AI, תוך שימת דגש על עקרונות יסוד כגון שקיפות, הוגנות ובטיחות שימוש. באוגוסט 2024, חוקק באיחוד האירופי חוק ה- Artificial Intelligence Act, אשר יכנס לתוקפו בעוד כשנתיים. הפרה של הוראות חוק זה עלולה לגרור קנסות בסך 35 מיליון אירו או 7% מהמחזור הגלובלי של חברות אשר יפרו את הוראותיו. בארה"ב, בשלב זה הנושא מוסדר ברמה המדינתית בלבד באמצעות הוראות חוק שונות. בקולורדו לדוגמה, חוק הבינה המלאכותית אשר יכנס לתוקפו ב-2026, יאפשר לרגולטור להטיל קנסות שונים בגין הפרות של החוק. הוראות חוק שונות המתייחסות לשימוש ב- AI קיימות גם במדינות נוספות. מדיניות ארגונית סדורה תאפשר לחברה להיערך מראש ליישום רגולציות חדשות בצורה אפקטיבית ויעילה ובכך לצמצם חשיפות משפטיות ורגולטוריות.
- אתיקה ואמון ציבורי: השימוש בטכנולוגיות AI מעורר סוגיות אתיות רבות, בהן שקיפות פעולתה של הטכנולוגיה, הוגנותה, והשפעתה על מניעת אפליה ופגיעה בזכויות אדם. על כן, יישום מדיניות ברורה ומתואמת בחברה תסייע לבניית אמון הציבור, לצמצום סיכוני משברים תדמיתיים ולהגנה על המוניטין של החברה. חברה שמאמצת גישה אתית ומחויבת בשימוש בטכנולוגיות אלה תוכל לא רק להימנע מהשלכות שליליות, אלא גם ליצור יתרון תחרותי בשוק.
השפעת השימוש הגובר בטכנולוגית AI על חשיפות נושאי המשרה והדירקטוריון
האחריות בגין הסיכונים הנובעים משימוש בטכנולוגיות AI עשויה להיות מוטלת על הדירקטוריון והנהלת החברה, האחראים על ניהול הסיכון ופיקוח על יישומו. הדירקטוריון ממלא תפקיד מרכזי בהבטחת שימוש אחראי ובטוח בטכנולוגיה זו, ולכן עליו להכיר את הסיכונים הייחודיים הכרוכים בה, להנחות את ההנהלה בגיבוש אסטרטגיה מתאימה ולפקח על יישומה. בין היתר, הסיכונים, מתבטאים במספר מגמות עכשוויות:
- עליה בחשיפות רגולטוריות – כמפורט לעיל, השימוש הגובר בטכנולוגיית AI ישפיע על הרחבת הרגולציה והאכיפה בתחום זה, וכפועל יוצא, הסיכון הפוטנציאלי לחברה, לנושאי המשרה ולדירקטוריון יגדל. מומלץ להכיר את הרגולציה החלה על החברה בתחום זה ולוודא כי החברה נוקטת באמצעים הנדרשים ליישומה.
- תביעות “AI Washing” – המונח “AI Washing lawsuits” מתייחס לתביעות הקשורות לדיווחים ומצגים מטעים של חברות ביחס לשימוש שהן עושות בטכנולוגיית AI, ביחס לתוצאות שהן השיגו בעקבות השימוש בטכנולוגיית AI, וביחס לרמת בשלות פתרונות ה- AI שהן מציעות ללקוחותיהם. לדוגמה, בפברואר 2024, הוגשה תביעה ייצוגית בארה"ב כנגד חברת Innodata Inc. בגין מצגי שווא ומצגים מטעים שהחברה הציגה לכאורה ביחס ליכולות ה- AI של החברה. במרץ 2024 הרשות לניירות ערך האמריקאית (SEC) חייבה שתי חברות ייעוץ השקעות בקנסות אזרחיים בסכום כולל של 400,000 דולר, בגין מצגים מטעים בדוחות לרשות לני"ע ובאתר החברה ביחס לשימוש בטכנולוגיית AI.
- תביעות ייצוגיות ונגזרות כנגד נושאי המשרה והדירקטורים הקשורות לשימוש בטכנולוגיית AI – דירקטורים ונושאי משרה חשופים בין היתר לתביעות ייצוגיות ולתביעות נגזרות לרבות ביחס לשימוש בטכנולוגיית AI. בהעדר פיקוח, נהלים ותוכניות ציות מתאימים, שימוש בטכנולוגיית AI, עלול להגביר את הסיכון לתביעות בגין הפרת קניין רוחני, תביעות בגין הפרת הפרטיות ואבטחת המידע, תביעות דיבה והשמצה, תביעות אחריות המוצר, תביעות נזיקין ועוד. נתונים עדכניים מצביעים כי בשנת 2024 מספר התביעות הייצוגיות הקשורות לשימוש ב- AI בארה"ב הוכפל ועמד על 13 תביעות מול כ- 6 תביעות ייצוגיות לשנה בשנים 2022-2023.
בחינת שימוש בטכנולוגיות AI במסגרת בדיקת נאותות בעסקאות
לאחרונה, אנו עדים למגמה בולטת בשוק העסקאות, כאשר במהלך בדיקות נאותות בעסקאות השקעה, מיזוג ורכישה מושם דגש רב על-ידי משקיעים ורוכשים על בחינת השימוש של החברה בטכנולוגיות AI. בין הנושאים המרכזיים שנבחנים במהלך בדיקת הנאותות:
- האם החברה מפתחת מודלים קנייניים או עושה שימוש במודלים של צדדים שלישיים?
- במידה שהחברה עושה שימוש במודלים של צדדים שלישיים, האם נבחנו ההסכמים עימם, ובפרט תנאים הנוגעים לבעלות ולזכויות על התוצרים המתקבלים? האם החברה כללה או כוללת מידע אישי רגיש, סודות מסחריים או מידע קנייני מהותי שלה או של צדדים שלישיים בהזנת המידע לכלי Generative AI ואם כן, כיצד היא מבטיחה שהכלים הללו לא יעשו שימוש הפוגע במידע לצורך אימון המודלים שלהם?
- במידה שהחברה עושה שימוש במודלים שפותחו על-ידה, מהם מקורות המידע המשמשים לאימון המודלים? האם יש תהליך ברור להבטחת זכויות שימוש חוקי במידע זה? האם יש לחברה מדיניות סדורה ביחס לניהול הסיכונים בתחום ה-AI כיצד החברה מתמודדת עם שגיאות בלתי צפויות הנוצרות כתוצאה מהשימוש במודלים של AI ואילו מנגנוני בקרה ודרכי פעולה הוטמעו בחברה לצמצום הסיכון לשגיאות חמורות?
- כיצד החברה קובעת את רמת הדיוק של המודלים, ומהם הקריטריונים להערכה זו? האם החברה מבצעת הצהרות פומביות או חוזיות ביחס לרמת הדיוק, והאם קיימים מנגנוני פיקוח לשיפור הדיוק?
- כיצד החברה מבטיחה את עמידתה בדרישות הרגולטוריות המתהוות בתחום ה-AI ?
שאלות אלו ואחרות משמשות ככלי הערכה קריטי להבנת הסיכונים וההזדמנויות הנוגעים לשימוש בטכנולוגיות AI בחברה. הן מסייעות בהערכת סיכוני העסקה, בבניית אמון המשקיעים והרוכשים, ובהצגת תמונה ברורה על מוכנות החברה להתמודדות עם אתגרים משפטיים, רגולטוריים ואתיים בתחום ה- AI במהלך בדיקת הנאותות.
המלצות לשנת 2025
1. גיבוש מדיניות AI ארגונית כוללת:
על רקע העלייה במודעות לחשיבות הסדרת השימוש בטכנולוגיות AI מומלץ כי חברות ינהלו סיכון זה ויכללו בתוכנית העבודה לשנת 2025 פיתוח מדיניות AI מקיפה, שתשתלב באופן אינטגרלי בתהליכי העבודה הארגוניים. מדיניות זו לא רק תחזק את מעמד החברה ותחזק את אמון המשקיעים, הלקוחות והשותפים הפוטנציאליים, אלא גם תסייע בשיפור התהליכים המשפטיים והרגולטוריים, תקל על ביצוע עסקאות השקעה ורכישה ותצמצם חשיפות משפטיות לחברה, לנושאי המשרה ולדירקטוריון.
- ניהול הסיכון על ידי הנהלת החברה והדירקטוריון: מומלץ כי הנהלת החברה והדירקטוריון יבחנו את חשיפות הארגון כתוצאה מהשימוש בטכנולוגית AI ויתוו את מדיניות החברה בתחום זה, ובכלל זה:
- מיפוי השימוש בטכנולוגיית ה- AI בחברה והגדרת אחראים לניהול סיכון זה.
- פיקוח וניהול היבטי AI הקשורים לתחום עיסוק החברה ולחשיפות המשפטיות של החברה.
- הכרת הרגולציה החלה על החברה בתחום זה והטמעת תכנית ציות בנושא.
- פיקוח על המידע אשר החברה מציגה באופן פומבי, לרבות בדוחות הכספיים, מול המשקיעים והרגולטורים השונים ביחס לפעילותה בתחום. שקיפות ותיאור מדויק יפחיתו את הסיכון לתביעות בנושא זה.
- מיפוי נכסי החברה החשופים לשימוש לרעה באמצעות טכנולוגיות AI על-ידי צדדים שלישיים, ועוד.
2. עקרונות מרכזיים לגיבוש מדיניות AI מיטבית:
- העלאת מודעות לסיכונים ולאתגרים: הדרכות לעובדים בנוגע לאתגרים ולסיכונים הכרוכים בשימוש בטכנולוגיות AI תוך התמקדות בהשפעות המשפטיות, האתיות והרגולטוריות.
- הבהרת גבולות גזרה ברורים: פירוט כלי ה-AI המאושרים לשימוש בחברה, וקביעת מנגנונים לפיקוח ולאישור שימוש בכלים נוספים כך שהשימוש בטכנולוגיות יהיה מבוקר ומפוקח.
- הנחיות פרקטיות – "עשה ואל תעשה": מניעת חשיפת מידע רגיש, זליגת סודות מסחריים, או הפרת זכויות קניין רוחני של צדדים שלישיים, באמצעות קביעת הנחיות ברורות ומפורשות לעובדים בנוגע לשימוש במודלים של AI ולהגנה על המידע המוזן להם. בנוסף, יש להבטיח מעורבות אנושית בתהליכי קבלת החלטות מהותיים, במיוחד במקרים בעלי השפעה משמעותית על הלקוחות.
- מנגנוני בקרה ועדכון שוטף: קביעת כללים שיבטיחו את יישום המדיניות בפועל, לצד התאמתה להתפתחויות רגולטוריות ושוקיות, ולשינויים בצרכים הפנימיים של החברה.
מוצע לערוך את מסמך המדיניות בשיתוף פעולה עם יועצים משפטיים מומחים בתחומי הקניין הרוחני, הגנת הפרטיות והרגולציה הטכנולוגית, ולבחון את התאמתו באופן תקופתי לשינויים החלים בעולם המשפט, הטכנולוגיה והרגולציה.
3. גידור הסיכון באמצעות ביטוח:
- הגנה על נושאי המשרה והדירקטוריון: (א) בחינת היקף הכיסוי (נוסח הפוליסה) בפוליסת ביטוח נושאי משרה ודירקטורים, תוך שימת דגש לכיסוי לנזק הנובע משימוש בטכנולוגיית AI. (ב) בחינת גבולות האחריות בפוליסה זו בגין נזק שאינו בר שיפוי –" Side A cover", זאת בכדי להגן באופן מיטבי על נושאי המשרה והדירקטורים מפני תביעות נגזרות (בהן לא ניתן לקבל שיפוי מכוח כתב השיפוי מהחברה).
- הגנה על החברה: בחינת היקף הכיסוי להחברה בפוליסות ביטוח שונות כגון: פוליסת אחריות מקצועית, פוליסת סייבר, פוליסת חבות המוצר ועוד, העשויות להגן על החברה מפני תביעות ונזקים כתוצאה משימוש ב- AI.
- מומלץ להציג לחתמים בעת חידוש הפוליסות, את היקף השימוש שהחברה עושה בטכנולוגית AI ואת האופן בו החברה מנהלת סיכון זה, בכדי להשיג כיסוי מיטבי.
- מוצע להיוועץ במומחים בתחום בכדי להגן על החברה, נושאי המשרה והדירקטוריון באופן המיטבי באמצעות ביטוחי החברה.
לסיכום, שימוש בטכנולוגיות AI דורש לא רק התמקדות בחדשנות, אלא גם באחריות משפטית ורגולטורית שתשמור על האינטרסים של החברה, תסייע לה להימנע מסיכונים עתידיים ותאפשר לחברה לממש את האסטרטגיה העסקית שלה.
אנו לרשותכם בכל שאלה או הבהרה בנוגע לעדכון לעיל.
אין לראות בסקירה זו ייעוץ משפטי או תחליף לייעוץ משפטי, ואין לראות בדברים הנזכרים לעיל משום מצג כלשהו לגבי המצב המשפטי בישראל בכל הנוגע להטמעת כלי AI, אלא יש לראות במסמך זה משום הסבר כללי בלבד.