بیانیه اخلاقی هوش مصنوعی SCANDIC DATA

مقدمه و اهداف

SCANDIC DATA از هوش مصنوعی (AI) و سیستم‌های الگوریتمی در زمینه‌های مختلف استفاده می‌کند: نگهداری پیشگیرانه و پیش‌بینی خرابی سرور، متعادل‌سازی بار پویا، مدیریت انرژی و خنک‌سازی، تجزیه و تحلیل امنیتی (به عنوان مثال، تشخیص ناهنجاری، کاهش حملات DDoS)، پشتیبانی مشتری (چت‌بات‌ها) و بهینه‌سازی زنجیره تأمین سخت‌افزار و انرژی. به عنوان بخشی از گروه SCANDIC، ما متعهد به استفاده مسئولانه، شفاف و مطابق با حقوق اساسی از هوش مصنوعی هستیم. این بیانیه اخلاق هوش مصنوعی، اصول، فرآیندها و مکانیسم‌های کنترلی را برای توسعه، تهیه، بهره‌برداری و استفاده از هوش مصنوعی در SCANDIC DATA تعریف می‌کند.

دنبال کردن

دارایی‌های اسکاندیک (FZCO)
دبی سیلیکون اوسیس DDP
ساختمان A1/A2
دبی — ۳۴۲۰۰۱
امارات متحده عربی

تلفن ‎+97 14 3465‑949‎
ایمیل اطلاعات@ScandicAssets.dev
نشان دهنده برند است و توسط موارد زیر نشان داده می‌شود:

گروه تراست اسکاندیک (شرکت بامسئولیت محدود)
مرکز تجاری آی‌کیو
خیابان بولسونوفسکا ۱۳-۱۵
کیف — 01014، اوکراین

تلفن +38 09 71 880-110
ایمیل اطلاعات@ScandicTrust.com
نشان دهنده است.

شریک همکاری عبارت است از:

لژیر بتئیلیونگنگس ام‌بی‌اچ
کورفورستندام ۱۴
۱۰۷۱۹ برلین
جمهوری فدرال آلمان

HRB 57837 – VAT ID DE 413445833
تلفن +49 (0) 30 99211‑3469
ایمیل: Office@LegierGroup.com

SCANDIC ASSETS FZCO و LEGIER Beteiligungs mbH ارائه دهندگان خدمات غیر عملیاتی هستند؛ فعالیت‌های عملیاتی توسط SCANDIC TRUST GROUP LLC انجام می‌شود.

این بیانیه با توجه به قانون آتی هوش مصنوعی اتحادیه اروپا، GDPR، PDPL، مقررات ابری و مخابراتی خاص صنعت و بهترین شیوه‌های بین‌المللی تدوین شده است. هدف آن تقویت نوآوری در عین مدیریت ریسک‌ها برای اطمینان از اعتماد مشتریان، کارمندان و جامعه است.

کتابخانه مرور کلی

– ۱. ارزش‌های اصلی و اصول راهنما
– ۲. حاکمیت و مسئولیت‌ها
– ۳. چارچوب قانونی و نظارتی
– ۴. اخلاق داده‌ها و حفاظت از داده‌ها
– ۵. شفافیت و قابلیت توضیح
– ۶. انصاف، تعصب و شمول
– ۷. نیروی انسانی در حلقه و تصمیمات حیاتی
– ۸. امنیت و استحکام
– ۹. پایداری
– ۱۰. هوش مصنوعی در عملیات مراکز داده
– ۱۱. آموزش، آگاهی و فرهنگ‌سازی
– ۱۲. نظارت، ممیزی و بهبود مستمر


۱. ارزش‌های اصلی و اصول راهنما


– مردم محوری: هوش مصنوعی برای پشتیبانی از انسان‌ها طراحی شده است. اپلیکیشن‌ها باید به شأن و استقلال مشتری احترام بگذارند.کارمندان و شرکا. تصمیماتی که تأثیر قابل توجهی دارند (مثلاً فسخ قراردادها به دلیل حوادث امنیتی) توسط افراد گرفته می‌شوند. – انطباق قانونی: تمام سیستم‌های هوش مصنوعی با قوانین مربوطه (GDPR، PDPL، قانون هوش مصنوعی اتحادیه اروپا، قانون مخابرات و انرژی) مطابقت دارند. شیوه‌های ممنوعه هوش مصنوعی (مانند نظارت گسترده بیومتریک) مستثنی هستند. مسئولیت‌پذیری و پاسخگویی: افراد مسئول برای هر سیستم هوش مصنوعی تعیین می‌شوند. تصمیمات شفاف، قابل اعتراض و قابل بررسی توسط انسان هستند. مستندسازی و ردیابی حسابرسی، امکان ردیابی یکپارچه را فراهم می‌کند. تناسب: استفاده از هوش مصنوعی متناسب با هدف و ریسک آن است. برنامه‌های کاربردی پرخطر (مثلاً خاموش شدن خودکار شبکه در صورت هشدار امنیتی) مشمول مکانیسم‌های کنترلی سختگیرانه‌ای هستند. شفافیت: کاربرانکارمندان از زمان استفاده از هوش مصنوعی مطلع می‌شوند. اصول و عملکرد سیستم‌ها به روشنی توضیح داده می‌شود. انصاف و شمول: هوش مصنوعی نباید بر اساس اصالت، جنسیت، سن، معلولیت یا سایر ویژگی‌های حساس، علیه کسی تبعیض قائل شود. تعصب به طور فعال شناسایی و به حداقل می‌رسد. امنیت و تاب‌آوری: سیستم‌های هوش مصنوعی در برابر دستکاری و سوء رفتار مقاوم‌سازی می‌شوند. حوادث امنیتی به صورت پیشگیرانه گزارش و تجزیه و تحلیل می‌شوند. پایداری: ردپای اکولوژیکی زیرساخت هوش مصنوعی ما در نظر گرفته شده است. مدل‌های کم‌مصرف، سخت‌افزارهای کم‌مصرف و عملیات پایدار مرکز داده، استاندارد هستند.


۲. حاکمیت و مسئولیت‌ها


یک هیئت اخلاق هوش مصنوعی در سطح گروه، بر تمام ابتکارات هوش مصنوعی نظارت دارد. این هیئت متشکل از متخصصان حقوقی، حفاظت از داده‌ها، امنیت فناوری اطلاعات، فناوری مرکز داده، عملیات و منابع انسانی است. این هیئت، پروژه‌های جدید هوش مصنوعی را بررسی، ریسک‌ها را ارزیابی و برنامه‌های کاربردی پرخطر را تأیید می‌کند. دستورالعمل‌های داخلی، استفاده از هوش مصنوعی را کنترل کرده و با سیاست‌های موجود انطباق، حفاظت از داده‌ها و زنجیره تأمین ادغام می‌کنند. برای هر پروژه، یک مالک تعیین‌شده برای مدیریت توسعه، بهره‌برداری و نظارت بر سیستم (مدل RACI) منصوب می‌شود. کمیته ESG گروه SCANDIC تضمین می‌کند که مباحث هوش مصنوعی در استراتژی شرکت ادغام شده و به مدیریت و هیئت مشاوره گزارش می‌دهد.


۳. چارچوب قانونی و نظارتی


SCANDIC DATA با تمام استانداردهای قانونی مربوطه مطابقت دارد:

– قانون هوش مصنوعی اتحادیه اروپا: برای برنامه‌های کاربردی پرخطر (مانند کنترل دسترسی بیومتریک، واکنش خودکار به حوادث)، ما ارزیابی‌های تأثیر، مستندسازی منابع داده، روش‌های آموزشی و معیارهای عملکرد را انجام می‌دهیم و به طور مداوم بر رعایت قوانین نظارت می‌کنیم. قوانین GDPR، PDPL و حریم خصوصی الکترونیکی: برای تجزیه و تحلیل و شخصی‌سازی مبتنی بر هوش مصنوعی، ما فقط از داده‌هایی با مبنای قانونی استفاده می‌کنیم. داده‌های شخصی کوچک‌سازی، با نام مستعار یا ناشناس می‌شوند. مقررات فناوری اطلاعات و امنیت: ما به استانداردهای ISO (ISO/IEC 27001، 27017، 27701)، چارچوب NIST، حفاظت پایه فناوری اطلاعات BSI و استانداردهای خاص صنعت برای مراکز داده و ارائه دهندگان ابر پایبند هستیم. قوانین کار و زنجیره تأمین: سیستم‌های مبتنی بر هوش مصنوعی برای نظارت بر کارمندان استفاده نمی‌شوند، مگر اینکه قانون اجازه داده باشد و متناسب باشد. در زمینه زنجیره تأمین، ما از هوش مصنوعی برای تجزیه و تحلیل ریسک بدون استفاده از معیارهای تبعیض‌آمیز استفاده می‌کنیم.


۴. اخلاق داده‌ها و حفاظت از داده‌ها


مدیریت مسئولانه داده‌ها، پایه و اساس استراتژی هوش مصنوعی ما را تشکیل می‌دهد. ما تضمین می‌کنیم که داده‌های آموزشی و تولیدی:

- به صورت قانونی جمع‌آوری شده‌اند؛ - با اصل کمینه‌سازی داده‌ها مطابقت دارند؛ - عاری از هرگونه تعصب تبعیض‌آمیز هستند؛ - در محیطی امن ذخیره و پردازش می‌شوند؛ - در مورد داده‌های حساس (مانند اطلاعات سلامت)، فقط با رضایت صریح استفاده می‌شوند.

علاوه بر این، منشأ داده‌ها مستندسازی می‌شود تا بتوان منابعی را که در یک مدل گنجانده شده‌اند، ردیابی کرد. هنگام استفاده از داده‌های مصنوعی یا مدل‌های تولیدی، محتوا را به عنوان تولید شده توسط هوش مصنوعی علامت‌گذاری می‌کنیم.


۵. شفافیت و قابلیت توضیح


ما تعاملات هوش مصنوعی (مثلاً چت‌بات‌ها، سیستم‌های پیشنهاددهنده) را به طور واضح و بدون ابهام برچسب‌گذاری می‌کنیم. کاربران اطلاعات قابل فهمی در مورد نحوه عملکرد یک سیستم، عوامل کلیدی در نظر گرفته شده در یک تصمیم و نحوه درخواست بررسی انسانی در صورت لزوم دریافت می‌کنند. هنگام تصمیم‌گیری در مورد اقدامات امنیتی (مثلاً مسدود کردن خودکار یک آدرس IP)، معیارهای مربوطه را بدون افشای اسرار تجاری فاش می‌کنیم. فرآیندهای تصمیم‌گیری برای تسهیل ممیزی‌های داخلی یا خارجی ثبت می‌شوند.


۶. انصاف، تعصب و شمول


الگوریتم‌های ما به طور سیستماتیک برای تشخیص تبعیض آزمایش می‌شوند. این شامل تجزیه و تحلیل آماری داده‌های آموزشی، گروه‌های آزمایشی متنوع و بررسی‌های عملیاتی منظم است. ما از رویه‌هایی برای شناسایی رفتار نابرابر (به عنوان مثال، تجزیه و تحلیل تأثیر متفاوت) و اصلاح مدل‌ها بر اساس آن استفاده می‌کنیم. توجه ویژه‌ای به گروه‌های آسیب‌پذیر می‌شود؛ سیستم‌ها نباید اجازه سوءاستفاده از نقاط ضعف شناختی را بدهند. در مدیریت ظرفیت و قیمت‌گذاری خدمات ابری، ما مراقب هستیم که به طور خودسرانه علیه مشتریان تبعیض قائل نشویم.


۷. نیروی انسانی در حلقه و تصمیمات حیاتی


سیستم‌های خودکار نباید در تصمیم‌گیری‌های حیاتی امنیتی یا تجاری جایگزین تخصص انسانی شوند. در موارد اضطراری، فسخ قرارداد به دلیل نقض امنیتی یا تغییرات قابل توجه در پیکربندی، پیشنهادات پشتیبانی شده توسط هوش مصنوعی همیشه توسط افراد واجد شرایط بررسی می‌شوند. یک مکانیسم تشدید و لغو ("انسان در حلقه") برای اطمینان از حفظ کنترل نهایی توسط انسان‌ها وجود دارد.


۸. امنیت و استحکام


تمام سیستم‌های هوش مصنوعی در برابر حملات خصمانه، تزریق سریع، مسمومیت داده‌ها و سایر تلاش‌های دستکاری مقاوم‌سازی شده‌اند. ما از استراتژی‌های دفاع در عمق استفاده می‌کنیم: محدودیت‌های دسترسی، احراز هویت دقیق، رمزگذاری، نظارت مداوم و آزمایش تیم قرمز. حوادث امنیتی به سرعت بررسی، مستندسازی و اصلاح می‌شوند. برنامه‌های واکنش به حوادث، زنجیره‌های گزارش‌دهی را ایجاد کرده و اقدامات متقابل را تعریف می‌کنند. مدل‌ها به طور منظم برای رفع آسیب‌پذیری‌های شناخته شده به‌روزرسانی می‌شوند.


۹. پایداری


توسعه و بهره‌برداری از هوش مصنوعی منابع را مصرف می‌کند. SCANDIC DATA به معماری‌های مدل با بهره‌وری انرژی بالا، سخت‌افزارهای صرفه‌جویی در منابع (مانند GPUها/TPUها با عملکرد بالا در هر وات) و زیرساخت‌های مقیاس‌پذیر متکی است. مراکز داده ما با انرژی تجدیدپذیر تغذیه می‌شوند و حجم کار را برای به حداقل رساندن مصرف برق و نیازهای خنک‌کننده بهینه می‌کنند. به‌روزرسانی‌ها و آموزش مجدد مدل‌ها برای جلوگیری از کارهای محاسباتی غیرضروری برنامه‌ریزی شده‌اند. تجهیزات قدیمی بازیافت یا به درستی دفع می‌شوند.


۱۰. هوش مصنوعی در عملیات مراکز داده


SCANDIC DATA از هوش مصنوعی برای کارآمدتر، ایمن‌تر و پایدارتر کردن عملیات مرکز داده استفاده می‌کند:

– نگهداری و تعمیرات پیش‌بینانه: مدل‌های یادگیری ماشین، داده‌های حسگرها و عملیاتی را از سرورها، یو پی اس‌ها، سیستم‌های تهویه مطبوع و اجزای شبکه تجزیه و تحلیل می‌کنند تا احتمال خرابی را پیش‌بینی کنند. تعمیر و نگهداری قبل از وقوع اختلال برنامه‌ریزی می‌شود. مدیریت انرژی و سرمایش: الگوریتم‌های هوش مصنوعی، جریان برق، تعادل بار بین رک‌ها و استفاده از سیستم خنک‌کننده را بهینه می‌کنند تا میزان بهره‌وری مصرف برق (PUE) را زیر ۱.۲۵ نگه دارند. تحلیل‌های امنیتی: مدل‌های تشخیص ناهنجاری، دسترسی غیرمعمول، الگوهای DDoS، نشت داده‌ها یا تهدیدات داخلی را شناسایی می‌کنند. نتایج در پلتفرم SIEM/SOAR ما گنجانده می‌شوند. برنامه‌ریزی ظرفیت: هوش مصنوعی تقاضا برای منابع محاسباتی و ذخیره‌سازی را پیش‌بینی می‌کند و به ما این امکان را می‌دهد که خرید سخت‌افزار، مجازی‌سازی و ظرفیت شبکه را به موقع تنظیم کنیم. چت‌بات‌ها و پشتیبانی: دستیاران هوشمند در زمینه سوالات استاندارد، تخصیص تیکت و مستندات فنی پشتیبانی ارائه می‌دهند. سوالات پیچیده‌تر به کارمندان انسانی واگذار می‌شود.

اصول اخلاقی ذکر شده در بالا در تمام موارد استفاده در نظر گرفته شده است.


۱۱. آموزش، آگاهی و فرهنگ‌سازی


SCANDIC DATA فرهنگی سازمانی را پرورش می‌دهد که در آن کارمندان تصمیمات هوش مصنوعی را زیر سوال می‌برند و از فناوری مسئولانه استفاده می‌کنند. برنامه‌های آموزشی، اصول اخلاق هوش مصنوعی، حفاظت از داده‌ها، آگاهی امنیتی، کیفیت داده‌ها و نحوه برخورد با تعصب را آموزش می‌دهند. کارمندان تشویق می‌شوند که ناهنجاری‌ها را گزارش دهند و در فرآیند بهبود مستمر شرکت کنند. مدیریت تضمین می‌کند که ملاحظات اخلاقی در تمام مراحل یک پروژه (طراحی، توسعه، استقرار و بهره‌برداری) لحاظ شود.


۱۲. نظارت، ممیزی و بهبود مستمر


سیستم‌های هوش مصنوعی ما به طور مداوم تحت نظارت هستند. معیارهای کلیدی مانند دقت، انصاف، نرخ‌های مثبت کاذب، مصرف انرژی، انتشار CO₂ و رضایت کاربر در گزارش‌های منظم گنجانده می‌شوند. ممیزی‌های داخلی و خارجی، انطباق با خط‌مشی هوش مصنوعی را تأیید می‌کنند. از بینش‌های حاصل از ممیزی‌ها، بازخورد کاربر و تحلیل‌های فنی برای تطبیق مدل‌ها و فرآیندها استفاده می‌شود. این بیانیه حداقل سالانه یا هر زمان که تغییرات قابل توجهی رخ دهد، به‌روزرسانی خواهد شد.