بیانیه اخلاقی هوش مصنوعی SCANDIC DATA
مقدمه و اهداف
SCANDIC DATA از هوش مصنوعی (AI) و سیستمهای الگوریتمی در زمینههای مختلف استفاده میکند: نگهداری پیشگیرانه و پیشبینی خرابی سرور، متعادلسازی بار پویا، مدیریت انرژی و خنکسازی، تجزیه و تحلیل امنیتی (به عنوان مثال، تشخیص ناهنجاری، کاهش حملات DDoS)، پشتیبانی مشتری (چتباتها) و بهینهسازی زنجیره تأمین سختافزار و انرژی. به عنوان بخشی از گروه SCANDIC، ما متعهد به استفاده مسئولانه، شفاف و مطابق با حقوق اساسی از هوش مصنوعی هستیم. این بیانیه اخلاق هوش مصنوعی، اصول، فرآیندها و مکانیسمهای کنترلی را برای توسعه، تهیه، بهرهبرداری و استفاده از هوش مصنوعی در SCANDIC DATA تعریف میکند.
دنبال کردن
داراییهای اسکاندیک (FZCO)
دبی سیلیکون اوسیس DDP
ساختمان A1/A2
دبی — ۳۴۲۰۰۱
امارات متحده عربی
تلفن +97 14 3465‑949
ایمیل اطلاعات@ScandicAssets.dev
نشان دهنده برند است و توسط موارد زیر نشان داده میشود:
گروه تراست اسکاندیک (شرکت بامسئولیت محدود)
مرکز تجاری آیکیو
خیابان بولسونوفسکا ۱۳-۱۵
کیف — 01014، اوکراین
تلفن +38 09 71 880-110
ایمیل اطلاعات@ScandicTrust.com
نشان دهنده است.
شریک همکاری عبارت است از:
لژیر بتئیلیونگنگس امبیاچ
کورفورستندام ۱۴
۱۰۷۱۹ برلین
جمهوری فدرال آلمان
HRB 57837 – VAT ID DE 413445833
تلفن +49 (0) 30 99211‑3469
ایمیل: Office@LegierGroup.com
SCANDIC ASSETS FZCO و LEGIER Beteiligungs mbH ارائه دهندگان خدمات غیر عملیاتی هستند؛ فعالیتهای عملیاتی توسط SCANDIC TRUST GROUP LLC انجام میشود.
این بیانیه با توجه به قانون آتی هوش مصنوعی اتحادیه اروپا، GDPR، PDPL، مقررات ابری و مخابراتی خاص صنعت و بهترین شیوههای بینالمللی تدوین شده است. هدف آن تقویت نوآوری در عین مدیریت ریسکها برای اطمینان از اعتماد مشتریان، کارمندان و جامعه است.
کتابخانه مرور کلی
– ۱. ارزشهای اصلی و اصول راهنما
– ۲. حاکمیت و مسئولیتها
– ۳. چارچوب قانونی و نظارتی
– ۴. اخلاق دادهها و حفاظت از دادهها
– ۵. شفافیت و قابلیت توضیح
– ۶. انصاف، تعصب و شمول
– ۷. نیروی انسانی در حلقه و تصمیمات حیاتی
– ۸. امنیت و استحکام
– ۹. پایداری
– ۱۰. هوش مصنوعی در عملیات مراکز داده
– ۱۱. آموزش، آگاهی و فرهنگسازی
– ۱۲. نظارت، ممیزی و بهبود مستمر
۱. ارزشهای اصلی و اصول راهنما
– مردم محوری: هوش مصنوعی برای پشتیبانی از انسانها طراحی شده است. اپلیکیشنها باید به شأن و استقلال مشتری احترام بگذارند.کارمندان و شرکا. تصمیماتی که تأثیر قابل توجهی دارند (مثلاً فسخ قراردادها به دلیل حوادث امنیتی) توسط افراد گرفته میشوند. – انطباق قانونی: تمام سیستمهای هوش مصنوعی با قوانین مربوطه (GDPR، PDPL، قانون هوش مصنوعی اتحادیه اروپا، قانون مخابرات و انرژی) مطابقت دارند. شیوههای ممنوعه هوش مصنوعی (مانند نظارت گسترده بیومتریک) مستثنی هستند. مسئولیتپذیری و پاسخگویی: افراد مسئول برای هر سیستم هوش مصنوعی تعیین میشوند. تصمیمات شفاف، قابل اعتراض و قابل بررسی توسط انسان هستند. مستندسازی و ردیابی حسابرسی، امکان ردیابی یکپارچه را فراهم میکند. تناسب: استفاده از هوش مصنوعی متناسب با هدف و ریسک آن است. برنامههای کاربردی پرخطر (مثلاً خاموش شدن خودکار شبکه در صورت هشدار امنیتی) مشمول مکانیسمهای کنترلی سختگیرانهای هستند. شفافیت: کاربرانکارمندان از زمان استفاده از هوش مصنوعی مطلع میشوند. اصول و عملکرد سیستمها به روشنی توضیح داده میشود. انصاف و شمول: هوش مصنوعی نباید بر اساس اصالت، جنسیت، سن، معلولیت یا سایر ویژگیهای حساس، علیه کسی تبعیض قائل شود. تعصب به طور فعال شناسایی و به حداقل میرسد. امنیت و تابآوری: سیستمهای هوش مصنوعی در برابر دستکاری و سوء رفتار مقاومسازی میشوند. حوادث امنیتی به صورت پیشگیرانه گزارش و تجزیه و تحلیل میشوند. پایداری: ردپای اکولوژیکی زیرساخت هوش مصنوعی ما در نظر گرفته شده است. مدلهای کممصرف، سختافزارهای کممصرف و عملیات پایدار مرکز داده، استاندارد هستند.
۲. حاکمیت و مسئولیتها
یک هیئت اخلاق هوش مصنوعی در سطح گروه، بر تمام ابتکارات هوش مصنوعی نظارت دارد. این هیئت متشکل از متخصصان حقوقی، حفاظت از دادهها، امنیت فناوری اطلاعات، فناوری مرکز داده، عملیات و منابع انسانی است. این هیئت، پروژههای جدید هوش مصنوعی را بررسی، ریسکها را ارزیابی و برنامههای کاربردی پرخطر را تأیید میکند. دستورالعملهای داخلی، استفاده از هوش مصنوعی را کنترل کرده و با سیاستهای موجود انطباق، حفاظت از دادهها و زنجیره تأمین ادغام میکنند. برای هر پروژه، یک مالک تعیینشده برای مدیریت توسعه، بهرهبرداری و نظارت بر سیستم (مدل RACI) منصوب میشود. کمیته ESG گروه SCANDIC تضمین میکند که مباحث هوش مصنوعی در استراتژی شرکت ادغام شده و به مدیریت و هیئت مشاوره گزارش میدهد.
۳. چارچوب قانونی و نظارتی
SCANDIC DATA با تمام استانداردهای قانونی مربوطه مطابقت دارد:
– قانون هوش مصنوعی اتحادیه اروپا: برای برنامههای کاربردی پرخطر (مانند کنترل دسترسی بیومتریک، واکنش خودکار به حوادث)، ما ارزیابیهای تأثیر، مستندسازی منابع داده، روشهای آموزشی و معیارهای عملکرد را انجام میدهیم و به طور مداوم بر رعایت قوانین نظارت میکنیم. قوانین GDPR، PDPL و حریم خصوصی الکترونیکی: برای تجزیه و تحلیل و شخصیسازی مبتنی بر هوش مصنوعی، ما فقط از دادههایی با مبنای قانونی استفاده میکنیم. دادههای شخصی کوچکسازی، با نام مستعار یا ناشناس میشوند. مقررات فناوری اطلاعات و امنیت: ما به استانداردهای ISO (ISO/IEC 27001، 27017، 27701)، چارچوب NIST، حفاظت پایه فناوری اطلاعات BSI و استانداردهای خاص صنعت برای مراکز داده و ارائه دهندگان ابر پایبند هستیم. قوانین کار و زنجیره تأمین: سیستمهای مبتنی بر هوش مصنوعی برای نظارت بر کارمندان استفاده نمیشوند، مگر اینکه قانون اجازه داده باشد و متناسب باشد. در زمینه زنجیره تأمین، ما از هوش مصنوعی برای تجزیه و تحلیل ریسک بدون استفاده از معیارهای تبعیضآمیز استفاده میکنیم.
۴. اخلاق دادهها و حفاظت از دادهها
مدیریت مسئولانه دادهها، پایه و اساس استراتژی هوش مصنوعی ما را تشکیل میدهد. ما تضمین میکنیم که دادههای آموزشی و تولیدی:
- به صورت قانونی جمعآوری شدهاند؛ - با اصل کمینهسازی دادهها مطابقت دارند؛ - عاری از هرگونه تعصب تبعیضآمیز هستند؛ - در محیطی امن ذخیره و پردازش میشوند؛ - در مورد دادههای حساس (مانند اطلاعات سلامت)، فقط با رضایت صریح استفاده میشوند.
علاوه بر این، منشأ دادهها مستندسازی میشود تا بتوان منابعی را که در یک مدل گنجانده شدهاند، ردیابی کرد. هنگام استفاده از دادههای مصنوعی یا مدلهای تولیدی، محتوا را به عنوان تولید شده توسط هوش مصنوعی علامتگذاری میکنیم.
۵. شفافیت و قابلیت توضیح
ما تعاملات هوش مصنوعی (مثلاً چتباتها، سیستمهای پیشنهاددهنده) را به طور واضح و بدون ابهام برچسبگذاری میکنیم. کاربران اطلاعات قابل فهمی در مورد نحوه عملکرد یک سیستم، عوامل کلیدی در نظر گرفته شده در یک تصمیم و نحوه درخواست بررسی انسانی در صورت لزوم دریافت میکنند. هنگام تصمیمگیری در مورد اقدامات امنیتی (مثلاً مسدود کردن خودکار یک آدرس IP)، معیارهای مربوطه را بدون افشای اسرار تجاری فاش میکنیم. فرآیندهای تصمیمگیری برای تسهیل ممیزیهای داخلی یا خارجی ثبت میشوند.
۶. انصاف، تعصب و شمول
الگوریتمهای ما به طور سیستماتیک برای تشخیص تبعیض آزمایش میشوند. این شامل تجزیه و تحلیل آماری دادههای آموزشی، گروههای آزمایشی متنوع و بررسیهای عملیاتی منظم است. ما از رویههایی برای شناسایی رفتار نابرابر (به عنوان مثال، تجزیه و تحلیل تأثیر متفاوت) و اصلاح مدلها بر اساس آن استفاده میکنیم. توجه ویژهای به گروههای آسیبپذیر میشود؛ سیستمها نباید اجازه سوءاستفاده از نقاط ضعف شناختی را بدهند. در مدیریت ظرفیت و قیمتگذاری خدمات ابری، ما مراقب هستیم که به طور خودسرانه علیه مشتریان تبعیض قائل نشویم.
۷. نیروی انسانی در حلقه و تصمیمات حیاتی
سیستمهای خودکار نباید در تصمیمگیریهای حیاتی امنیتی یا تجاری جایگزین تخصص انسانی شوند. در موارد اضطراری، فسخ قرارداد به دلیل نقض امنیتی یا تغییرات قابل توجه در پیکربندی، پیشنهادات پشتیبانی شده توسط هوش مصنوعی همیشه توسط افراد واجد شرایط بررسی میشوند. یک مکانیسم تشدید و لغو ("انسان در حلقه") برای اطمینان از حفظ کنترل نهایی توسط انسانها وجود دارد.
۸. امنیت و استحکام
تمام سیستمهای هوش مصنوعی در برابر حملات خصمانه، تزریق سریع، مسمومیت دادهها و سایر تلاشهای دستکاری مقاومسازی شدهاند. ما از استراتژیهای دفاع در عمق استفاده میکنیم: محدودیتهای دسترسی، احراز هویت دقیق، رمزگذاری، نظارت مداوم و آزمایش تیم قرمز. حوادث امنیتی به سرعت بررسی، مستندسازی و اصلاح میشوند. برنامههای واکنش به حوادث، زنجیرههای گزارشدهی را ایجاد کرده و اقدامات متقابل را تعریف میکنند. مدلها به طور منظم برای رفع آسیبپذیریهای شناخته شده بهروزرسانی میشوند.
۹. پایداری
توسعه و بهرهبرداری از هوش مصنوعی منابع را مصرف میکند. SCANDIC DATA به معماریهای مدل با بهرهوری انرژی بالا، سختافزارهای صرفهجویی در منابع (مانند GPUها/TPUها با عملکرد بالا در هر وات) و زیرساختهای مقیاسپذیر متکی است. مراکز داده ما با انرژی تجدیدپذیر تغذیه میشوند و حجم کار را برای به حداقل رساندن مصرف برق و نیازهای خنککننده بهینه میکنند. بهروزرسانیها و آموزش مجدد مدلها برای جلوگیری از کارهای محاسباتی غیرضروری برنامهریزی شدهاند. تجهیزات قدیمی بازیافت یا به درستی دفع میشوند.
۱۰. هوش مصنوعی در عملیات مراکز داده
SCANDIC DATA از هوش مصنوعی برای کارآمدتر، ایمنتر و پایدارتر کردن عملیات مرکز داده استفاده میکند:
– نگهداری و تعمیرات پیشبینانه: مدلهای یادگیری ماشین، دادههای حسگرها و عملیاتی را از سرورها، یو پی اسها، سیستمهای تهویه مطبوع و اجزای شبکه تجزیه و تحلیل میکنند تا احتمال خرابی را پیشبینی کنند. تعمیر و نگهداری قبل از وقوع اختلال برنامهریزی میشود. مدیریت انرژی و سرمایش: الگوریتمهای هوش مصنوعی، جریان برق، تعادل بار بین رکها و استفاده از سیستم خنککننده را بهینه میکنند تا میزان بهرهوری مصرف برق (PUE) را زیر ۱.۲۵ نگه دارند. تحلیلهای امنیتی: مدلهای تشخیص ناهنجاری، دسترسی غیرمعمول، الگوهای DDoS، نشت دادهها یا تهدیدات داخلی را شناسایی میکنند. نتایج در پلتفرم SIEM/SOAR ما گنجانده میشوند. برنامهریزی ظرفیت: هوش مصنوعی تقاضا برای منابع محاسباتی و ذخیرهسازی را پیشبینی میکند و به ما این امکان را میدهد که خرید سختافزار، مجازیسازی و ظرفیت شبکه را به موقع تنظیم کنیم. چتباتها و پشتیبانی: دستیاران هوشمند در زمینه سوالات استاندارد، تخصیص تیکت و مستندات فنی پشتیبانی ارائه میدهند. سوالات پیچیدهتر به کارمندان انسانی واگذار میشود.
اصول اخلاقی ذکر شده در بالا در تمام موارد استفاده در نظر گرفته شده است.
۱۱. آموزش، آگاهی و فرهنگسازی
SCANDIC DATA فرهنگی سازمانی را پرورش میدهد که در آن کارمندان تصمیمات هوش مصنوعی را زیر سوال میبرند و از فناوری مسئولانه استفاده میکنند. برنامههای آموزشی، اصول اخلاق هوش مصنوعی، حفاظت از دادهها، آگاهی امنیتی، کیفیت دادهها و نحوه برخورد با تعصب را آموزش میدهند. کارمندان تشویق میشوند که ناهنجاریها را گزارش دهند و در فرآیند بهبود مستمر شرکت کنند. مدیریت تضمین میکند که ملاحظات اخلاقی در تمام مراحل یک پروژه (طراحی، توسعه، استقرار و بهرهبرداری) لحاظ شود.
۱۲. نظارت، ممیزی و بهبود مستمر
سیستمهای هوش مصنوعی ما به طور مداوم تحت نظارت هستند. معیارهای کلیدی مانند دقت، انصاف، نرخهای مثبت کاذب، مصرف انرژی، انتشار CO₂ و رضایت کاربر در گزارشهای منظم گنجانده میشوند. ممیزیهای داخلی و خارجی، انطباق با خطمشی هوش مصنوعی را تأیید میکنند. از بینشهای حاصل از ممیزیها، بازخورد کاربر و تحلیلهای فنی برای تطبیق مدلها و فرآیندها استفاده میشود. این بیانیه حداقل سالانه یا هر زمان که تغییرات قابل توجهی رخ دهد، بهروزرسانی خواهد شد.