הצהרת האתיקה של סקאנדיק דאטה בנושא בינה מלאכותית
מבוא ומטרות
SCANDIC DATA משתמשת בבינה מלאכותית (AI) ובמערכות אלגוריתמיות בתחומים שונים: תחזוקה חזויה וחיזוי כשלים בשרתים, איזון עומסים דינמי, ניהול אנרגיה וקירור, ניתוח אבטחה (למשל, זיהוי אנומליות, הפחתת תקלות DDoS), תמיכת לקוחות (צ'אטבוטים) ואופטימיזציה של שרשרת אספקת חומרה ואנרגיה. כחלק מקבוצת SCANDIC, אנו מחויבים להשתמש בבינה מלאכותית באחריות, בשקיפות ובהתאם לזכויות יסוד. הצהרת אתיקה זו בנושא בינה מלאכותית מגדירה את העקרונות, התהליכים ומנגנוני הבקרה לפיתוח, רכש, תפעול ושימוש בבינה מלאכותית ב-SCANDIC DATA.
לִרְדוֹף
סקאנדיק נכסים FZCO
דובאי סיליקון אואזיס DDP
בניין A1/A2
דובאי — 342001
איחוד האמירויות הערביות
טלפון +97 14 3465‑949
אֶלֶקטרוֹנִי מידע@ScandicAssets.dev
מייצג את המותג ומיוצג על ידי:
קבוצת סקאנדיק טראסט בע"מ
מרכז העסקים IQ
רחוב בולסונובסקה 13‑15
קייב — 01014, אוקראינה
טלפון +38 09 71 880‑110
אֶלֶקטרוֹנִי Info@ScandicTrust.com
מייצג.
שותף לשיתוף פעולה הוא:
LEGIER Beteiligungs mbH
קורפורסטנדאם 14
10719 ברלין
הרפובליקה הפדרלית של גרמניה
HRB 57837 – מזהה מע"מ DE 413445833
טלפון +49 (0) 30 99211‑3469
אֶלֶקטרוֹנִי: משרד@LegierGroup.com
SCANDIC ASSETS FZCO ו-LEGIER Beteiligungs mbH הן ספקיות שירותים שאינן תפעוליות; פעילויות התפעול מתבצעות על ידי SCANDIC TRUST GROUP LLC.
ההצהרה מונחית על ידי חוק הבינה המלאכותית הקרוב של האיחוד האירופי, ה-GDPR, ה-PDPL, תקנות ענן ותקשורת ספציפיות לתעשייה, ושיטות עבודה מומלצות בינלאומיות. מטרתה היא לטפח חדשנות תוך ניהול סיכונים כדי להבטיח את אמון הלקוחות, העובדים והחברה.
ספריית סקירה כללית
– 1. ערכי ליבה ועקרונות מנחים
– 2. ניהול ואחריות
– 3. מסגרת משפטית ורגולטורית
– 4. אתיקה של נתונים והגנה על נתונים
– 5. שקיפות והסבר
– 6. הוגנות, הטיה והכלה
– 7. אדם בתוך הלולאה והחלטות קריטיות
– 8. אבטחה ועמידות
– 9. קיימות
– 10. בינה מלאכותית בפעילות מרכזי נתונים
– 11. הכשרה, מודעות ותרבות
– 12. ניטור, ביקורת ושיפור מתמיד
1. ערכי ליבה ועקרונות מנחים
– התמקדות באנשים: בינה מלאכותית נועדה לתמוך באנשים. יישומים חייבים לכבד את כבודו ואוטונומייתו של הלקוח.עובדים ושותפים. החלטות בעלות השפעה משמעותית (למשל, סיום חוזים עקב אירועי אבטחה) מתקבלות על ידי אנשים. – תאימות לחוק: כל מערכות הבינה המלאכותית עומדות בחוקים הרלוונטיים (GDPR, PDPL, חוק הבינה המלאכותית של האיחוד האירופי, חוקי טלקומוניקציה ואנרגיה). פרקטיקות בינה מלאכותית אסורות (למשל, מעקב ביומטרי המוני) אינן נכללות. אחריות ואחריות: לכל מערכת בינה מלאכותית מונו אנשים אחראיים. ההחלטות שקופות, ניתנות לערעור וניתנות לבדיקה על ידי בני אדם. תיעוד ומסלולי ביקורת מאפשרים מעקב חלק. פרופורציונליות: השימוש בבינה מלאכותית הוא פרופורציונלי למטרתה ולסיכונה. יישומים בסיכון גבוה (למשל, כיבוי אוטומטי של הרשת במקרה של התראת אבטחה) כפופים למנגנוני בקרה מחמירים. שְׁקִיפוּת: משתמשיםהעובדים מקבלים מידע כאשר נעשה שימוש בבינה מלאכותית. עקרונות המערכות והתפקודים מוסברים בצורה ברורה. הוגנות והכלה: אסור לבינה מלאכותית להפלות לרעה על רקע מוצא, מין, גיל, מוגבלות או מאפיינים רגישים אחרים. הטיה מזוהה וממוזערת באופן פעיל. ביטחון וחוסן: מערכות בינה מלאכותית מוקשחות מפני מניפולציה והתנהגות בלתי הולמת. אירועי אבטחה מדווחים ומנותחים באופן יזום. קיימות: טביעת הרגל האקולוגית של תשתית הבינה המלאכותית שלנו נלקחת בחשבון. מודלים חסכוניים באנרגיה, חומרה חוסכת משאבים ותפעול קיימא של מרכזי נתונים הם סטנדרט.
2. ניהול ואחריות
ועדת אתיקה של בינה מלאכותית ברמת הקבוצה מפקחת על כל יוזמות הבינה המלאכותית. היא מורכבת ממומחים מתחומי המשפט, הגנת המידע, אבטחת המידע, טכנולוגיית מרכזי נתונים, תפעול ומשאבי אנוש. ועדה זו סוקרת פרויקטים חדשים של בינה מלאכותית, מעריכה סיכונים ומאשרת יישומים בסיכון גבוה. הנחיות פנימיות מסדירות את השימוש בבינה מלאכותית ומשתלבות עם מדיניות קיימת של תאימות, הגנת מידע ושרשרת אספקה. לכל פרויקט ממונה בעלים ייעודי לניהול הפיתוח, התפעול והניטור של המערכת (מודל RACI). ועדת ה-ESG של קבוצת SCANDIC מבטיחה כי נושאי בינה מלאכותית משולבים באסטרטגיה התאגידית ומדווחת להנהלה ולוועדה המייעצת.
3. מסגרת משפטית ורגולטורית
סקאנדיק דאטה עומדת בכל התקנים החוקיים הרלוונטיים:
– חוק הבינה המלאכותית של האיחוד האירופי: עבור יישומים בסיכון גבוה (למשל, בקרת גישה ביומטרית, תגובה אוטומטית לאירועים), אנו עורכים הערכות השפעה, מתעדים מקורות נתונים, שיטות הדרכה ומדדי ביצועים, ועוקבים באופן רציף אחר תאימות. כללי GDPR, PDPL ו-ePrivacy: עבור ניתוחים והתאמה אישית הנתמכים על ידי בינה מלאכותית, אנו משתמשים רק בנתונים בעלי בסיס לגיטימי. נתונים אישיים ממוזערים, עוברים פסאודו-מוניזציה או אנונימיזציה. רגולציה של IT ואבטחה: אנו פועלים לפי תקני ISO (ISO/IEC 27001, 27017, 27701), מסגרת NIST, הגנה בסיסית IT של BSI, ותקנים ספציפיים לתעשייה עבור מרכזי נתונים וספקי ענן. חוקי עבודה ושרשרת אספקה: מערכות מבוססות בינה מלאכותית אינן משמשות לניטור עובדים אלא אם כן הדבר מותר על פי חוק והן פרופורציונליות. בהקשר של שרשרת האספקה, אנו משתמשים בבינה מלאכותית לניתוח סיכונים ללא שימוש בקריטריונים מפלים.
4. אתיקה של נתונים והגנה על נתונים
ניהול נתונים אחראי מהווה את הבסיס לאסטרטגיית הבינה המלאכותית שלנו. אנו מבטיחים שנתוני הדרכה וייצור:
– נאספו כדין; – עומדים בעקרון מזעור הנתונים; – נקיים מהטיה מפלה; – מאוחסנים ומעובדים בסביבה מאובטחת; – במקרה של נתונים רגישים (למשל, מידע בריאותי), ישמשו רק בהסכמה מפורשת.
בנוסף, מקורות הנתונים מתועדים כך שניתן יהיה לעקוב אחר המקורות ששולבו במודל. בעת שימוש בנתונים סינתטיים או במודלים גנרטיביים, אנו מסמנים את התוכן כתוכן שנוצר על ידי בינה מלאכותית.
5. שקיפות והסבר
אנו מתייגים באופן ברור וחד משמעי אינטראקציות של בינה מלאכותית (למשל, צ'אטבוטים, מערכות המלצות). משתמשים מקבלים מידע מובן על אופן פעולתה של מערכת, הגורמים המרכזיים הנלקחים בחשבון בהחלטה, וכיצד הם יכולים לבקש סקירה אנושית במידת הצורך. בעת קבלת החלטות לגבי אמצעי אבטחה (למשל, חסימה אוטומטית של כתובת IP), אנו חושפים את הקריטריונים הרלוונטיים מבלי לחשוף סודות מסחריים. תהליכי קבלת החלטות נרשמים כדי להקל על ביקורות פנימיות או חיצוניות.
6. הוגנות, הטיה והכלה
האלגוריתמים שלנו נבדקים באופן שיטתי לאפליה. זה כולל ניתוחים סטטיסטיים של נתוני אימון, קבוצות בדיקה מגוונות וסקירות תפעוליות שוטפות. אנו משתמשים בהליכים לזיהוי יחס לא שוויוני (למשל, ניתוחי השפעה שונים) ומתקנים מודלים בהתאם. תשומת לב מיוחדת ניתנת לקבוצות פגיעות; אסור שמערכות יאפשרו ניצול של חולשות קוגניטיביות. בניהול קיבולת ותמחור שירותי ענן, אנו נזהרים לא להפלות לקוחות באופן שרירותי.
7. אדם בתוך הלולאה והחלטות קריטיות
מערכות אוטומטיות אינן צריכות להחליף מומחיות אנושית בכל הנוגע להחלטות קריטיות לעסקים או לאבטחה. במקרה של אמצעי חירום, סיום חוזה עקב פרצות או שינויי תצורה משמעותיים, הצעות הנתמכות על ידי בינה מלאכותית נבדקות תמיד על ידי אנשים מוסמכים. מנגנון הסלמה ועקיפה ("אדם בלולאה") קיים כדי להבטיח שבני אדם ישמרו על השליטה המוחלטת.
8. אבטחה ועמידות
כל מערכות הבינה המלאכותית מוקשחות בפני התקפות עוינות, הזרקה מיידית, הרעלת נתונים וניסיונות מניפולציה אחרים. אנו משתמשים באסטרטגיות הגנה מעמיקות: הגבלות גישה, אימות קפדני, הצפנה, ניטור מתמשך ובדיקות צוות אדום. אירועי אבטחה נחקרים, מתועדים ומתוקנים במהירות. תוכניות תגובה לאירועים קובעות שרשראות דיווח ומגדירות אמצעי נגד. מודלים מתעדכנים באופן קבוע כדי לטפל בפגיעויות ידועות.
9. קיימות
פיתוח ותפעול של בינה מלאכותית צורכים משאבים. SCANDIC DATA מסתמכת על ארכיטקטורות מודל חסכוניות באנרגיה, חומרה חוסכת משאבים (למשל, כרטיסי מסך/כרטיסי מסך בעלי ביצועים גבוהים לוואט) ותשתית ניתנת להרחבה. מרכזי הנתונים שלנו מופעלים על ידי אנרגיה מתחדשת וממטבים עומסי עבודה כדי למזער את צריכת החשמל ודרישות הקירור. עדכוני מודל והכשרה מחדש מתוכננים כדי למנוע עבודת מחשוב מיותרת; ציוד ישן ממוחזר או מושלך כראוי.
10. בינה מלאכותית בפעילות מרכזי נתונים
SCANDIC DATA משתמשת בבינה מלאכותית כדי להפוך את פעילות מרכז הנתונים ליעילה, מאובטחת ובת קיימא יותר:
– תחזוקה חזויה: מודלים של למידת מכונה מנתחים נתוני חיישנים ותפעול משרתים, מערכות UPS, מערכות מיזוג אוויר ורכיבי רשת כדי לחזות הסתברויות לכשל. תחזוקה מתוכננת לפני מתרחשות שיבושים. ניהול אנרגיה וקירור: אלגוריתמי בינה מלאכותית ממטבים את זרימת החשמל, איזון העומסים בין המדפים ואת ניצול מערכת הקירור כדי לשמור על יעילות ניצול החשמל (PUE) מתחת ל-1.25. ניתוחי אבטחה: מודלים לגילוי אנומליות מזהים גישה חריגה, דפוסי DDoS, דליפות נתונים או איומים פנימיים. התוצאות משולבות בפלטפורמת ה-SIEM/SOAR שלנו. תכנון קיבולת: בינה מלאכותית מנבאת את הביקוש למשאבי מחשוב ואחסון, ומאפשרת לנו להתאים את רכש החומרה, הווירטואליזציה וקיבולת הרשת בצורה יעילה. צ'אטבוטים ותמיכה: עוזרים חכמים מספקים תמיכה בפניות סטנדרטיות, הקצאת כרטיסים ותיעוד טכני. שאלות מורכבות יותר מועברות לעובדים אנושיים.
העקרונות האתיים שהוזכרו לעיל נלקחים בחשבון בכל מקרי השימוש.
11. הכשרה, מודעות ותרבות
SCANDIC DATA מטפחת תרבות ארגונית שבה עובדים מטילים ספק בהחלטות של בינה מלאכותית ומשתמשים בטכנולוגיה באחריות. תוכניות הכשרה מלמדות את יסודות האתיקה של בינה מלאכותית, הגנת נתונים, מודעות לאבטחה, איכות נתונים וכיצד להתמודד עם הטיה. העובדים מעודדים לדווח על אנומליות ולהשתתף בתהליך השיפור המתמיד. ההנהלה מבטיחה ששיקולים אתיים משולבים בכל שלבי הפרויקט (תכנון, פיתוח, פריסה ותפעול).
12. ניטור, ביקורת ושיפור מתמיד
מערכות הבינה המלאכותית שלנו מנוטרות באופן רציף. מדדים מרכזיים כגון דיוק, הוגנות, שיעורי חיוביים שגויות, צריכת אנרגיה, פליטות CO₂ ושביעות רצון משתמשים כלולים בדוחות שוטפים. ביקורות פנימיות וחיצוניות מאמתות עמידה במדיניות הבינה המלאכותית. תובנות מביקורות, משוב משתמשים וניתוחים טכניים משמשות להתאמת מודלים ותהליכים. הצהרה זו תעודכן לפחות פעם בשנה או בכל פעם שיתרחשו שינויים משמעותיים.