‫Secure AI Framework של Google‏
(SAIF)

ל-AI יש פוטנציאל עצום, ובמיוחד ל-AI גנרטיבי. החדשנות מתפתחת כל הזמן, ונדרשים לתעשייה סטנדרטים ליצירה ולפריסה של מערכות AI באופן אחראי. זו הסיבה שהשקנו את Secure AI Framework ‏(SAIF) – ‏מסגרת רעיונית לאבטחה של מערכות AI.

‫6 יסודות הליבה של SAIF

‫SAIF היא מסגרת רעיונית שנועדה לטפל בנושאים מרכזיים שמעסיקים את מומחי האבטחה, למשל: פרטיות, אבטחה וניהול סיכונים במודלים של AI או למידת מכונה. כשמטמיעים מודלים של AI, אפשר להיעזר במסגרת הרעיונית הזו כדי לוודא שהם מאובטחים כברירת מחדל.

הרחבה של תשתיות אבטחה עוצמתיות לסביבה העסקית של AI
שילוב AI בתהליכי הטיפול באיומים בארגון, משלב הזיהוי ועד שלב התגובה
אוטומציה של אמצעי הגנה במטרה לעמוד בקצב של איומים קיימים וחדשים
יצירת איזון והרמוניה בין אמצעי הבקרה ברמת הפלטפורמה כדי לשמור על אבטחה עקבית בכל חלקי הארגון
התאמה של אמצעי הבקרה כדי לשנות את דרכי ההתמודדות עם איומים וליצור לולאות משוב מהירות יותר לפריסת AI
הצגת הסיכונים למערכות AI בהקשר של התהליכים העסקיים שסובבים אותן
להורדת קובץ PDF
סביבה עסקית
בטוחה יותר

אנחנו שמחים לשתף את השלבים הראשונים במסע שלנו ליצירת סביבה עסקית של SAIF אצל רשויות ממשלתיות, עסקים וארגונים, במטרה לקדם מסגרת רעיונית לפריסת AI בצורה מאובטחת שמתאימה לכולם.

משלבים את SAIF ברשויות ממשלתיות ובארגונים

אנחנו משתפים פעולה עם רשויות ממשלתיות וארגונים במטרה לצמצם את סיכוני האבטחה ב-AI. העבודה שלנו עם הגורמים האחראים לקביעת מדיניות ועם ארגוני התקנים, כמו NIST, תורמת לפיתוח מסגרות רגולטוריות. הדגשנו לאחרונה את התפקיד של SAIF באבטחה של מערכות AI, תוך התאמה למחויבויות של הבית הלבן בנוגע ל-AI.

מרחיבים את SAIF בעזרת שותפים מהתעשייה

אנחנו מקדמים תמיכה ב-SAIF בקרב הלקוחות והשותפים בתעשייה, עורכים סדנאות בנושא SAIF עם מומחים ומפרסמים שיטות מומלצות לאבטחת AI. שיתפנו פעולה עם Deloitte בכתיבת סקירה מפורטת על הדרכים שבהן ארגונים יכולים להשתמש ב-AI כדי להתמודד עם אתגרי אבטחה.

מקורות מידע נוספים
שאלות נפוצות בנושא SAIF

מה הקשר בין SAIF לבין אתיקה של בינה מלאכותית (AI)?

‫Google רואה חשיבות לפתח AI באופן אחראי ולעודד גם גופים אחרים לפעול כך. עקרונות ה-AI שלנו, שפורסמו בשנת 2018, מתארים את המחויבות שלנו לפיתוח אחראי של טכנולוגיות באופן ששומר על הבטיחות, מאפשר אחריותיות ועומד בסטנדרטים גבוהים של מצוינות מדעית. האתיקה של הבינה המלאכותית היא הגישה המקיפה שלנו שמורכבת מכמה היבטים, כמו 'יושר והגינות', 'חיזוי תוצאות אפשריות', 'אבטחה' ו'פרטיות'. ההיבטים האלה משמשים כקווים מנחים בפיתוח של כל מוצרי ה-AI מבית Google.

‫SAIF היא המסגרת הרעיונית שלנו שנועדה ליצור גישה סטנדרטית ומקיפה לשילוב של אמצעים לשמירה על פרטיות ואבטחה בהטמעות שמבוססות על למידת מכונה. המסגרת הרעיונית מותאמת להיבטים 'אבטחה' ו'פרטיות' במסגרת הפיתוח של AI באופן אחראי. בעזרת SAIF אפשר לוודא שפיתוח הטמעות של למידת מכונה מתבצע באופן אחראי, תוך התייחסות לציפיות של המשתמשים ולאיומים שהולכים וגדלים כל הזמן.

איך Google מיישמת את SAIF בפועל?

ל-Google יש היסטוריה ארוכה של פיתוח אחראי של אבטחת סייבר ו-AI, ובמשך שנים רבות מיפינו שיטות מומלצות בנושאי אבטחה ליוזמות חדשות בתחום ה-AI. זיקקנו את Secure AI Framework מתוך הניסיון שלנו והשיטות המומלצות שפיתחנו ויישמנו. המסגרת הרעיונית משקפת את הגישה של Google לגבי פיתוח אפליקציות שמבוססות על למידת מכונה ועל AI גנרטיבי, וכוללת אמצעי הגנה על אבטחה ופרטיות. האמצעים האלה רספונסיביים, בני קיימא וניתנים להתאמה. נמשיך לפתח את SAIF במטרה להתמודד עם סיכונים חדשים, סביבות משתנות ופיתוחים בתחום ה-AI.

איך בעלי המקצוע בתחום יכולים להטמיע את המסגרת הרעיונית?

כדאי לעיין במדריך המהיר שלנו להטמעה של SAIF:

  • שלב 1 – מבינים מה השימוש המיועד
    • כדי לקבוע אילו פרוטוקולים, מדיניות ואמצעי בקרה צריך ליישם במסגרת SAIF, חשוב להבין מהי הבעיה העסקית הספציפית שרוצים לפתור באמצעות ה-AI ואילו נתונים נדרשים לאימון המודל.
  • שלב 2 – מרכיבים את הצוות
    • הפיתוח והפריסה של מערכות AI הם פעולות רב-תחומיות, ממש כמו במערכות מסורתיות.
    • בדרך כלל, מערכות AI הן מורכבות ומעורפלות, יש בהן מספר גדול של חלקים משתנים, הן מתבססות על כמויות גדולות של נתונים, הן צורכות הרבה משאבים, אפשר להשתמש בהן ליישום של החלטות שמבוססות על שיפוט והן יכולות ליצור תוכן חדש שעלול להיות פוגעני או מזיק או שעלול להיתפס כסטריאוטיפ או הטיה חברתית.
    • חשוב להרכיב צוות מתאים עם פונקציות שונות, כדי לוודא שהשיקולים הקשורים לאבטחה, לפרטיות, וסיכונים ולתאימות נכללים כבר מההתחלה.
  • שלב 3 – מיישרים קו בעזרת הנחיות בסיסיות בנושא AI
    • בזמן שהצוותים מתחילים לבחון את השימוש העסקי ואת המורכבויות, אמצעי הבקרה על האבטחה והסיכונים השונים והמתפתחים שרלוונטיים למצב – חשוב מאוד שהגורמים המעורבים יבינו את היסודות של סבבי הפיתוח של מודל ה-AI, ואת המבנה והלוגיקה של המתודולוגיות במודל, כולל היכולות, היתרונות והמגבלות.
  • שלב 4 – מיישמים את 6 יסודות הליבה של SAIF (מפורטים למעלה)
    • אין צורך ליישם את היסודות לפי סדר כרונולוגי.

איפה אפשר למצוא מידע נוסף על SAIF ועל הדרכים ליישם את המסגרת הרעיונית הזו בעסק, בארגון או בישויות אחרות?

כדאי להמשיך להתעדכן! ‫Google תמשיך לפתח ולשתף משאבים, מקורות מידע, הנחיות וכלים שקשורים ל-Secure AI Framework, וגם שיטות מומלצות אחרות לגבי פיתוח של פתרונות מבוססי-AI.

למה אנחנו תומכים בקהילת AI מאובטחת לכולם

‫Google היא אחת מהחברות הראשונות שהגדירו עקרונות AI באופן ברור, והיא קבעה את הסטנדרטים לגבי AI אחראי. זה מה שמנחה אותנו בהיבטי הבטיחות של פיתוח המוצר. תמכנו ביצירת מסגרות רעיוניות לתעשייה וגם פיתחנו אותן בעצמנו במטרה להעלות את רף האבטחה, וגילינו שיצירת קהילה לקידום הפעילות הזו היא הכרחית להצלחה בטווח הארוך. זו הסיבה שאנחנו שמחים ליצור קהילת SAIF לכולם.

חידושים באבטחת סייבר

כאן מוסבר איך אנחנו שומרים על הבטיחות של יותר אנשים באינטרנט מכל גורם אחר בעולם.