KI‑Ethik‑Erklärung der SCANDIC DATA
Einleitung & Zielsetzung
SCANDIC DATA nutzt Künstliche Intelligenz (KI) und algorithmische Systeme in verschiedenen Bereichen: vorausschauende Wartung und Ausfallprognosen für Server, dynamische Lastverteilung, Energie‑ und Kühlmanagement, Sicherheitsanalysen (z. B. Erkennung von Anomalien, DDoS‑Abwehr), Kundensupport (Chatbots) und Optimierung von Lieferketten für Hardware und Energie. Als Teil der SCANDIC GROUP verpflichten wir uns dazu, KI verantwortungsvoll, transparent und im Einklang mit den Grundrechten einzusetzen. Diese KI‑Ethik‑Erklärung definiert die Grundsätze, Prozesse und Kontrollmechanismen für die Entwicklung, Beschaffung, den Betrieb und die Nutzung von KI bei SCANDIC DATA.
The company
SCANDIC ASSETS FZCO
Dubai Silicon Oasis DDP
Building A1/A2
Dubai - 342001
United Arab Emirates
Phone +97 14 3465-949
Mail Info@ScandicAssets.dev
vertritt die Marke und wird durch die:
SCANDIC TRUST GROUP LLC
IQ Business Center
Bolsunovska Street 13-15
Kyiv - 01014, Ukraine
Phone +38 09 71 880-110
Mail Info@ScandicTrust.com
repräsentiert.
Kooperationspartnerin ist:
LEGIER Beteiligungs mbH
Kurfürstendamm 14
10719 Berlin
Federal Republic of Germany
HRB 57837 – USt‑ID DE 413445833
Telefon +49 (0) 30 99211‑3469
Mail: Office@LegierGroup.com
SCANDIC ASSETS FZCO und LEGIER Beteiligungs mbH sind nicht operative Dienstanbieter; operative Tätigkeiten werden von der SCANDIC TRUST GROUP LLC durchgeführt.
Die Erklärung orientiert sich am kommenden EU‑AI‑Act, der DSGVO, der PDPL, branchenspezifischen Cloud‑ und Telekommunikationsregeln sowie internationalen Best Practices. Ziel ist es, Innovation zu fördern und gleichzeitig Risiken beherrschbar zu machen, um das Vertrauen von Kund*innen, Mitarbeitenden und der Gesellschaft zu sichern.
Overview library
– 1. Grundwerte & Leitprinzipien
– 2. Governance & Verantwortlichkeiten
– 3. Rechts‑ & Regulierungsrahmen
– 4. Datenethik & Datenschutz
– 5. Transparenz & Erklärbarkeit
– 6. Fairness, Bias & Inklusion
– 7. Human‑in‑the‑Loop & kritische Entscheidungen
– 8. Sicherheit & Robustheit
– 9. Nachhaltigkeit
– 10. KI im Datacenter‑Betrieb
– 11. Schulung, Awareness & Kultur
– 12. Überwachung, Audit & kontinuierliche Verbesserung
1. Grundwerte & Leitprinzipien
– Menschenzentrierung: KI dient der Unterstützung von Menschen. Anwendungen müssen die Würde und Autonomie der Kundinnen, Mitarbeitenden und Partner wahren. Entscheidungen, die erhebliche Auswirkungen haben (z. B. Kündigung von Verträgen aufgrund von Sicherheitsvorfällen), werden von Menschen getroffen. – Rechtskonformität: Alle KI‑Systeme entsprechen den geltenden Gesetzen (DSGVO, PDPL, EU‑AI‑Act, Telekommunikations- und Energiewirtschaftsrecht). Verbotene KI‑Praktiken (z. B. biometrische Massenüberwachung) werden ausgeschlossen. – Verantwortung & Rechenschaft: Für jedes KI‑System sind Verantwortliche benannt. Entscheidungen sind nachvollziehbar, anfechtbar und können von Menschen überprüft werden. Dokumentation und Audit‑Trails ermöglichen eine lückenlose Nachverfolgung. – Verhältnismäßigkeit: Der Einsatz von KI steht im Verhältnis zu Zweck und Risiko. Hochrisiko‑Anwendungen (z. B. automatische Netzwerkabschaltung bei Sicherheitsalarm) unterliegen strengen Kontrollmechanismen. – Transparency: Nutzerinnen werden darüber informiert, wenn KI eingesetzt wird. Grundsätze und Funktionsweisen der Systeme werden verständlich erklärt. – Fairness & inclusion: KI darf niemanden aufgrund von Herkunft, Geschlecht, Alter, Behinderung oder anderen sensiblen Merkmalen diskriminieren. Bias wird aktiv identifiziert und minimiert. – Sicherheit & Resilienz: KI‑Systeme werden gegen Manipulation und Fehlverhalten gehärtet. Sicherheitsvorfälle werden proaktiv gemeldet und analysiert. – Nachhaltigkeit: Der ökologische Fußabdruck unserer KI‑Infrastruktur wird berücksichtigt. Energieeffiziente Modelle, ressourcenschonende Hardware und ein nachhaltiger Betrieb des Rechenzentrums sind Standard.
2. Governance & Verantwortlichkeiten
Ein AI‑Ethics‑Board auf Gruppenebene überwacht alle KI‑Initiativen. Es setzt sich aus Fachleuten aus Recht, Datenschutz, IT‑Sicherheit, Rechenzentrumstechnik, Operations und Human Resources zusammen. Dieses Gremium prüft neue KI‑Projekte, bewertet Risiken und genehmigt Hochrisiko‑Anwendungen. Interne Richtlinien regeln die Nutzung von KI und integrieren sich mit bestehenden Compliance‑, Datenschutz‑ und Lieferkettenrichtlinien. Für jedes Projekt wird ein Verantwortlicher („Owner“) benannt, der Entwicklung, Betrieb und Überwachung des Systems steuert (RACI‑Modell). Der ESG‑Ausschuss der SCANDIC GROUP sorgt dafür, dass KI‑Themen in die Unternehmensstrategie integriert werden und berichtet an die Geschäftsführung und den Beirat.
3. Rechts‑ & Regulierungsrahmen
SCANDIC DATA beachtet sämtliche relevanten Rechtsnormen:
– EU‑AI‑Act: Für Hochrisiko‑Anwendungen (z. B. biometrische Zugangskontrollen, automatisierte Incident‑Response) führen wir Impact‑Assessments durch, dokumentieren Datenquellen, Trainingsmethoden, Performance‑Metriken und überwachen laufend die Einhaltung. – DSGVO, PDPL und ePrivacy‑Regeln: Für KI‑gestützte Analysen und Personalisierung nutzen wir nur Daten mit legitimer Grundlage. Personenbezogene Daten werden minimiert, pseudonymisiert oder anonymisiert. – IT‑ und Sicherheitsregulierung: Wir orientieren uns an ISO‑Normen (ISO/IEC 27001, 27017, 27701), dem NIST‑Framework, dem BSI‑IT‑Grundschutz sowie an branchenspezifischen Standards für Rechenzentren und Cloud‑Anbieter. – Arbeits‑ und Lieferkettengesetze: KI‑gestützte Systeme werden nicht zur Überwachung von Mitarbeitenden eingesetzt, es sei denn, dies ist gesetzlich zulässig und verhältnismäßig. Im Lieferkettenkontext nutzen wir KI für Risikoanalysen, ohne diskriminierende Kriterien zu verwenden.
4. Datenethik & Datenschutz
Der verantwortungsvolle Umgang mit Daten bildet die Grundlage unserer KI‑Strategie. Wir stellen sicher, dass Trainings‑ und Produktionsdaten:
– auf rechtmäßige Weise erhoben wurden; – dem Prinzip der Datenminimierung entsprechen; – frei von diskriminierenden Verzerrungen sind; – in einer sicheren Umgebung gespeichert und verarbeitet werden; – im Falle sensibler Daten (z. B. Gesundheitsinformationen) nur mit expliziter Einwilligung genutzt werden.
Zudem werden Datenherkünfte dokumentiert, damit nachvollzogen werden kann, welche Quellen in ein Modell eingeflossen sind. Bei Einsatz von synthetischen Daten oder generativen Modellen kennzeichnen wir die Inhalte als KI‑generiert.
5. Transparenz & Erklärbarkeit
Wir kennzeichnen KI‑Interaktionen (z. B. Chatbots, Empfehlungssysteme) klar und unmissverständlich. Nutzer*innen erhalten verständliche Informationen darüber, wie ein System funktioniert, welche Hauptfaktoren in eine Entscheidung einfließen und wie sie bei Bedarf eine menschliche Überprüfung verlangen können. Bei Entscheidungen über Sicherheitsmaßnahmen (z. B. automatische Blockierung einer IP‑Adresse) legen wir offen, welche Kriterien relevant sind, ohne Betriebsgeheimnisse preiszugeben. Entscheidungsprozesse werden protokolliert, um interne oder externe Audits zu ermöglichen.
6. Fairness, Bias & Inklusion
Unsere Algorithmen werden systematisch auf Diskriminierung geprüft. Dazu gehören statistische Analysen von Trainingsdaten, diversifizierte Testgruppen und regelmäßige Überprüfungen im Betrieb. Wir setzen Verfahren ein, um ungleiche Behandlung zu erkennen (z. B. disparate Impact‑Analysen) und korrigieren Modelle entsprechend. Besondere Aufmerksamkeit gilt vulnerablen Gruppen; Systeme dürfen keine Ausnutzung kognitiver Schwächen ermöglichen. Beim Kapazitätsmanagement und bei Preisgestaltungen für Cloud‑Services achten wir darauf, Kunden nicht willkürlich zu benachteiligen.
7. Human‑in‑the‑Loop & kritische Entscheidungen
Automatisierte Systeme dürfen menschliche Fachkenntnis nicht ersetzen, wenn es um sicherheits‑ oder geschäftskritische Entscheidungen geht. Bei Notfallmaßnahmen, Vertragskündigungen aufgrund von Verstößen oder erheblichen Konfigurationsänderungen werden KI‑gestützte Vorschläge immer von qualifizierten Personen überprüft. Es existiert ein Eskalations‑ und Übersteuerungsmechanismus („Human‑in‑the‑Loop“), der sicherstellt, dass Menschen die letztendliche Kontrolle behalten.
8. Sicherheit & Robustheit
Alle KI‑Systeme werden gegen Adversarial Attacks, Prompt Injection, Datenvergiftung und andere Manipulationsversuche gehärtet. Wir nutzen Defence‑in‑Depth‑Strategien: Zugriffsbeschränkungen, strenge Authentifizierung, Verschlüsselung, kontinuierliches Monitoring und Red‑Team‑Tests. Sicherheitsvorfälle werden umgehend untersucht, dokumentiert und behoben. Incident‑Response‑Pläne legen Meldeketten fest und definieren Gegenmaßnahmen. Modelle werden regelmäßig aktualisiert, um bekannte Schwachstellen zu schließen.
9. Nachhaltigkeit
Die Entwicklung und der Betrieb von KI verbrauchen Ressourcen. SCANDIC DATA setzt auf energieeffiziente Modellarchitekturen, ressourcenschonende Hardware (z. B. GPUs/TPUs mit hoher Leistung pro Watt) und eine skalierbare Infrastruktur. Unsere Rechenzentren werden mit erneuerbaren Energien betrieben und optimieren Workloads, um Stromverbrauch und Kühlaufwand zu minimieren. Modell‑Updates und Retrainings werden geplant, um unnötige Rechenarbeit zu vermeiden; Altgeräte werden recycelt oder fachgerecht entsorgt.
10. KI im Datacenter‑Betrieb
SCANDIC DATA setzt KI gezielt ein, um den Betrieb des Rechenzentrums effizienter, sicherer und nachhaltiger zu gestalten:
– Vorausschauende Wartung: Machine‑Learning‑Modelle analysieren Sensor‑ und Betriebsdaten von Servern, USVs, Klimaanlagen und Netzkomponenten, um Ausfallwahrscheinlichkeiten zu prognostizieren. Wartungen werden geplant, bevor Störungen auftreten. – Energie‑ und Kühlmanagement: KI‑Algorithmen optimieren den Stromfluss, die Lastverteilung zwischen Racks und die Nutzung von Kühlsystemen, um die Power Usage Effectiveness (PUE) unter 1,25 zu halten. – Sicherheitsanalysen: Anomaly‑Detection‑Modelle erkennen ungewöhnliche Zugriffe, DDoS‑Muster, Datenabflüsse oder Insider‑Threats. Ergebnisse fließen in unsere SIEM/SOAR‑Plattform ein. – Kapazitätsplanung: KI prognostiziert die Nachfrage nach Compute‑ und Storage‑Ressourcen, sodass wir Hardwarebeschaffung, Virtualisierung und Netzwerkkapazitäten rechtzeitig anpassen können. – Chatbots und Support: Intelligente Assistenten unterstützen bei Standardanfragen, Ticketzuweisungen und technischen Dokumentationen. Bei komplexeren Fragen erfolgt eine Übergabe an menschliche Mitarbeitende.
In allen Anwendungsfällen werden die oben genannten ethischen Grundsätze berücksichtigt.
11. Schulung, Awareness & Kultur
SCANDIC DATA fördert eine Unternehmenskultur, in der Mitarbeitende KI‑Entscheidungen hinterfragen und verantwortungsvoll mit Technologie umgehen. Schulungsprogramme vermitteln Grundlagen der KI‑Ethik, Datenschutz, Sicherheitsbewusstsein, Datenqualität und den Umgang mit Bias. Mitarbeitende werden ermutigt, Auffälligkeiten zu melden und am kontinuierlichen Verbesserungsprozess teilzunehmen. Führungskräfte sorgen dafür, dass ethische Überlegungen in allen Phasen eines Projekts (Design, Entwicklung, Deployment, Betrieb) einbezogen werden.
12. Überwachung, Audit & kontinuierliche Verbesserung
Unsere KI‑Systeme werden kontinuierlich überwacht. Kennzahlen wie Genauigkeit, Fairness, False‑Positive‑Raten, Energieverbrauch, CO₂‑Emissionen und Nutzerzufriedenheit fließen in regelmäßige Berichte ein. Interne und externe Audits prüfen die Einhaltung der KI‑Policy. Erkenntnisse aus Audits, Nutzerrückmeldungen und technischen Analysen werden genutzt, um Modelle und Prozesse anzupassen. Diese Erklärung wird mindestens einmal jährlich oder bei wesentlichen Änderungen aktualisiert.