Oświadczenie etyczne SCANDIC DATA dotyczące sztucznej inteligencji
Wprowadzenie i cele
SCANDIC DATA wykorzystuje sztuczną inteligencję (AI) i systemy algorytmiczne w różnych obszarach: konserwacja predykcyjna i prognozy awarii serwerów, dynamiczne równoważenie obciążenia, zarządzanie energią i chłodzeniem, analizy bezpieczeństwa (np. wykrywanie anomalii, obrona DDoS), obsługa klienta (chatboty) oraz optymalizacja łańcuchów dostaw sprzętu i energii. Jako część SCANDIC GROUP zobowiązujemy się do korzystania ze sztucznej inteligencji w sposób odpowiedzialny, przejrzysty i zgodny z prawami podstawowymi. Niniejsze Oświadczenie dotyczące etyki AI określa zasady, procesy i mechanizmy kontroli rozwoju, zaopatrzenia, obsługi i wykorzystania AI w SCANDIC DATA.
Firma
SCANDIC ASSETS FZCO
Dubai Silicon Oasis DDP
Budynek A1/A2
Dubaj - 342001
Zjednoczone Emiraty Arabskie
Telefon +97 14 3465-949
Poczta Info@ScandicAssets.dev
reprezentuje markę i jest wspierany przez:
SCANDIC TRUST GROUP LLC
IQ Business Centre
Ulica Bolszunowska 13-15
Kijów - 01014, Ukraina
Telefon +38 09 71 880-110
Poczta Info@ScandicTrust.com
reprezentuje.
jest partnerem do współpracy:
LEGIER Beteiligungs mbH
Kurfürstendamm 14
10719 Berlin
Republika Federalna Niemiec
HRB 57837 - VAT ID DE 413445833
Telefon +49 (0) 30 99211-3469
Poczta: Office@LegierGroup.com
SCANDIC ASSETS FZCO i LEGIER Beteiligungs mbH są nieoperacyjnymi dostawcami usług; działania operacyjne są prowadzone przez SCANDIC TRUST GROUP LLC.
Deklaracja opiera się na nadchodzącej unijnej ustawie o sztucznej inteligencji, RODO, PDPL, przepisach branżowych dotyczących chmury i telekomunikacji oraz najlepszych praktykach międzynarodowych. Celem jest promowanie innowacji przy jednoczesnym zarządzaniu ryzykiem w celu zapewnienia zaufania klientów, pracowników i społeczeństwa.
Przegląd biblioteki
– 1. podstawowe wartości i zasady przewodnie
– 2. zarządzanie i obowiązki
– 3. ramy prawne i regulacyjne
– 4. etyka i ochrona danych
– 5. przejrzystość i zrozumiałość
– 6. sprawiedliwość, stronniczość i włączenie
– 7. Człowiek w pętli i krytyczne decyzje
– 8. bezpieczeństwo i wytrzymałość
– 9. zrównoważony rozwój
– 10 Sztuczna inteligencja w operacjach centrum danych
– 11. szkolenia, świadomość i kultura
– 12. monitorowanie, audyt i ciągłe doskonalenie
1. podstawowe wartości i zasady przewodnie
– Koncentracja na ludziach: Sztuczna inteligencja służy wspieraniu ludzi. Aplikacje muszą szanować godność i autonomię klientów.pracowników i partnerów. Decyzje, które mają znaczący wpływ (np. anulowanie umów z powodu incydentów bezpieczeństwa) są podejmowane przez osoby. - Zgodność z prawem: Wszystkie systemy sztucznej inteligencji są zgodne z obowiązującymi przepisami (RODO, PDPL, unijna ustawa o sztucznej inteligencji, prawo telekomunikacyjne i energetyczne). Zabronione praktyki AI (np. masowy nadzór biometryczny) są wykluczone. - Odpowiedzialność i rozliczalność: Dla każdego systemu AI wyznaczane są osoby odpowiedzialne. Decyzje są identyfikowalne, zaskarżalne i mogą być weryfikowane przez ludzi. Dokumentacja i ścieżki audytu umożliwiają płynne śledzenie. - Proporcjonalność: Wykorzystanie sztucznej inteligencji jest proporcjonalne do celu i ryzyka. Aplikacje wysokiego ryzyka (np. automatyczne wyłączanie sieci w przypadku alarmu bezpieczeństwa) podlegają ścisłym mechanizmom kontroli. - Przejrzystość: Użytkownicysą informowani o korzystaniu ze sztucznej inteligencji. Zasady i funkcje systemów są wyjaśnione w zrozumiały sposób. - Sprawiedliwość i integracja: AI nie może dyskryminować nikogo ze względu na pochodzenie, płeć, wiek, niepełnosprawność lub inne wrażliwe cechy. Uprzedzenia są aktywnie identyfikowane i minimalizowane. - Bezpieczeństwo i odporność: Systemy AI są zabezpieczone przed manipulacją i niewłaściwym zachowaniem. Incydenty bezpieczeństwa są proaktywnie zgłaszane i analizowane. - Zrównoważony rozwój: Ślad ekologiczny naszej infrastruktury AI jest brany pod uwagę. Energooszczędne modele, sprzęt oszczędzający zasoby i zrównoważone działanie centrum danych są standardem.
2. zarządzanie i obowiązki
Rada Etyki AI na poziomie Grupy monitoruje wszystkie inicjatywy AI. W jej skład wchodzą eksperci z działu prawnego, ochrony danych, bezpieczeństwa IT, technologii centrum danych, operacji i zasobów ludzkich. Rada ta dokonuje przeglądu nowych projektów AI, ocenia ryzyko i zatwierdza aplikacje wysokiego ryzyka. Wewnętrzne wytyczne regulują wykorzystanie sztucznej inteligencji i integrują się z istniejącymi wytycznymi dotyczącymi zgodności, ochrony danych i łańcucha dostaw. Dla każdego projektu wyznaczany jest właściciel, który zarządza rozwojem, działaniem i monitorowaniem systemu (model RACI). Komitet ESG GRUPY SCANDIC zapewnia, że kwestie AI są zintegrowane ze strategią korporacyjną i raportuje do Zarządu i Rady Doradczej.
3. ramy prawne i regulacyjne
SCANDIC DATA przestrzega wszystkich odpowiednich norm prawnych:
– EU-AI-Act: W przypadku aplikacji wysokiego ryzyka (np. biometryczna kontrola dostępu, zautomatyzowane reagowanie na incydenty) przeprowadzamy oceny wpływu, dokumentujemy źródła danych, metody szkoleniowe, wskaźniki wydajności i stale monitorujemy zgodność. - RODO, PDPL i zasady prywatności i łączności elektronicznej: Używamy danych wyłącznie na uzasadnionej podstawie do analiz i personalizacji wspieranych przez sztuczną inteligencję. Dane osobowe są minimalizowane, pseudonimizowane lub anonimizowane. - Regulacje dotyczące IT i bezpieczeństwa: Kierujemy się standardami ISO (ISO/IEC 27001, 27017, 27701), ramami NIST, podstawową ochroną IT BSI oraz standardami branżowymi dla centrów danych i dostawców usług w chmurze. - Przepisy dotyczące pracy i łańcucha dostaw: Systemy wspierane przez sztuczną inteligencję nie są wykorzystywane do monitorowania pracowników, chyba że jest to prawnie dozwolone i proporcjonalne. W kontekście łańcucha dostaw wykorzystujemy sztuczną inteligencję do analiz ryzyka bez stosowania kryteriów dyskryminacyjnych.
4. etyka i ochrona danych
Odpowiedzialne obchodzenie się z danymi stanowi podstawę naszej strategii AI. Zapewniamy, że dane szkoleniowe i produkcyjne:
- są gromadzone w sposób zgodny z prawem; - są zgodne z zasadą minimalizacji danych; - są wolne od dyskryminujących uprzedzeń; - są przechowywane i przetwarzane w bezpiecznym środowisku; - w przypadku danych wrażliwych (np. informacji zdrowotnych) są wykorzystywane wyłącznie za wyraźną zgodą.
Ponadto pochodzenie danych jest udokumentowane, aby można było prześledzić, które źródła zostały włączone do modelu. Jeśli używane są dane syntetyczne lub modele generatywne, oznaczamy zawartość jako wygenerowaną przez sztuczną inteligencję.
5. przejrzystość i zrozumiałość
Interakcje ze sztuczną inteligencją (np. chatboty, systemy rekomendacji) oznaczamy w sposób jasny i jednoznaczny. Użytkownicy otrzymują zrozumiałe informacje o sposobie działania systemu, głównych czynnikach wpływających na decyzję oraz o tym, w jaki sposób mogą w razie potrzeby poprosić o weryfikację przez człowieka. Podejmując decyzje dotyczące środków bezpieczeństwa (np. automatycznego blokowania adresu IP), ujawniamy, które kryteria są istotne, bez ujawniania tajemnic handlowych. Procesy decyzyjne są rejestrowane, aby umożliwić wewnętrzne lub zewnętrzne audyty.
6. sprawiedliwość, stronniczość i włączenie
Nasze algorytmy są systematycznie testowane pod kątem dyskryminacji. Obejmuje to analizy statystyczne danych szkoleniowych, zróżnicowane grupy testowe i regularne kontrole podczas pracy. Używamy procedur do rozpoznawania nierównego traktowania (np. analizy zróżnicowanego wpływu) i odpowiednio korygujemy modele. Szczególną uwagę zwracamy na grupy wrażliwe; systemy nie mogą pozwalać na wykorzystywanie słabości poznawczych. Podczas zarządzania przepustowością i ustalania cen usług w chmurze zapewniamy, że klienci nie są arbitralnie dyskryminowani.
7. Człowiek w pętli i krytyczne decyzje
Zautomatyzowane systemy nie mogą zastępować ludzkiej wiedzy specjalistycznej, jeśli chodzi o bezpieczeństwo lub decyzje o krytycznym znaczeniu dla biznesu. W przypadku środków nadzwyczajnych, anulowania umowy z powodu naruszeń lub znaczących zmian konfiguracji, propozycje wspierane przez sztuczną inteligencję są zawsze weryfikowane przez wykwalifikowane osoby. Mechanizm eskalacji i zastępowania („człowiek w pętli“) ma na celu zapewnienie, że ludzie zachowują ostateczną kontrolę.
8. bezpieczeństwo i wytrzymałość
Wszystkie systemy sztucznej inteligencji są zabezpieczone przed atakami przeciwników, wstrzykiwaniem promptów, zatruwaniem danych i innymi próbami manipulacji. Stosujemy strategie obrony w głąb: ograniczenia dostępu, ścisłe uwierzytelnianie, szyfrowanie, ciągłe monitorowanie i testy czerwonego zespołu. Incydenty bezpieczeństwa są natychmiast badane, dokumentowane i rozwiązywane. Plany reagowania na incydenty ustanawiają łańcuchy raportowania i definiują środki zaradcze. Modele są regularnie aktualizowane w celu usunięcia znanych luk w zabezpieczeniach.
9. zrównoważony rozwój
Rozwój i obsługa sztucznej inteligencji pochłania zasoby. SCANDIC DATA opiera się na energooszczędnych architekturach modeli, zasobooszczędnym sprzęcie (np. GPU/TPU o wysokiej wydajności na wat) i skalowalnej infrastrukturze. Nasze centra danych są zasilane energią odnawialną i optymalizują obciążenia, aby zminimalizować zużycie energii i wymagania dotyczące chłodzenia. Aktualizacje modeli i przekwalifikowanie są planowane w celu uniknięcia niepotrzebnej pracy obliczeniowej; stary sprzęt jest poddawany recyklingowi lub odpowiednio utylizowany.
10 Sztuczna inteligencja w operacjach centrum danych
SCANDIC DATA wykorzystuje sztuczną inteligencję, aby operacje w centrach danych były bardziej wydajne, bezpieczne i zrównoważone:
– Konserwacja predykcyjna: Modele uczenia maszynowego analizują dane z czujników i dane operacyjne z serwerów, zasilaczy UPS, systemów klimatyzacji i komponentów sieci w celu przewidywania prawdopodobieństwa awarii. Konserwacja jest planowana przed wystąpieniem usterek. - Zarządzanie energią i chłodzeniem: Algorytmy sztucznej inteligencji optymalizują przepływ mocy, rozkład obciążenia między szafami i wykorzystanie systemów chłodzenia, aby utrzymać współczynnik efektywności zużycia energii (PUE) poniżej 1,25. - Analizy bezpieczeństwa: Modele wykrywania anomalii rozpoznają nietypowy dostęp, wzorce DDoS, wypływy danych lub wątki wewnętrzne. Wyniki są przekazywane do naszej platformy SIEM/SOAR. - Planowanie wydajności: Sztuczna inteligencja przewiduje zapotrzebowanie na zasoby obliczeniowe i pamięci masowej, dzięki czemu możemy odpowiednio wcześnie dostosować zakup sprzętu, wirtualizację i przepustowość sieci. - Chatboty i wsparcie: Inteligentni asystenci zapewniają wsparcie w zakresie standardowych zapytań, przypisywania zgłoszeń i dokumentacji technicznej. Bardziej złożone pytania są przekazywane pracownikom.
Wyżej wymienione zasady etyczne są brane pod uwagę we wszystkich aplikacjach.
11. szkolenia, świadomość i kultura
SCANDIC DATA promuje kulturę korporacyjną, w której pracownicy analizują decyzje dotyczące sztucznej inteligencji i odpowiedzialnie korzystają z technologii. Programy szkoleniowe uczą podstaw etyki AI, ochrony danych, świadomości bezpieczeństwa, jakości danych i radzenia sobie z uprzedzeniami. Pracownicy są zachęcani do zgłaszania anomalii i uczestniczenia w procesie ciągłego doskonalenia. Menedżerowie zapewniają, że kwestie etyczne są uwzględniane na wszystkich etapach projektu (projektowanie, rozwój, wdrażanie, obsługa).
12. monitorowanie, audyt i ciągłe doskonalenie
Nasze systemy AI są stale monitorowane. Kluczowe dane, takie jak dokładność, uczciwość, wskaźniki fałszywie pozytywnych wyników, zużycie energii, emisja CO₂ i zadowolenie użytkowników są uwzględniane w regularnych raportach. Wewnętrzne i zewnętrzne audyty sprawdzają zgodność z polityką AI. Wyniki audytów, opinie użytkowników i analizy techniczne są wykorzystywane do dostosowywania modeli i procesów. Niniejsza deklaracja jest aktualizowana co najmniej raz w roku lub w przypadku istotnych zmian.