คำชี้แจงจริยธรรม AI ของ SCANDIC DATA

บทนำและวัตถุประสงค์

SCANDIC DATA ใช้ปัญญาประดิษฐ์ (AI) และระบบอัลกอริทึมในหลากหลายด้าน ได้แก่ การบำรุงรักษาเชิงคาดการณ์และการคาดการณ์ความล้มเหลวของเซิร์ฟเวอร์ การปรับสมดุลโหลดแบบไดนามิก การจัดการพลังงานและระบบทำความเย็น การวิเคราะห์ความปลอดภัย (เช่น การตรวจจับความผิดปกติ การลดการโจมตีแบบ DDoS) การสนับสนุนลูกค้า (แชทบอท) และการเพิ่มประสิทธิภาพฮาร์ดแวร์และห่วงโซ่อุปทานพลังงาน ในฐานะส่วนหนึ่งของ SCANDIC GROUP เรามุ่งมั่นที่จะใช้ AI อย่างมีความรับผิดชอบ โปร่งใส และสอดคล้องกับสิทธิขั้นพื้นฐาน คำชี้แจงจริยธรรมด้าน AI ฉบับนี้กำหนดหลักการ กระบวนการ และกลไกการควบคุมสำหรับการพัฒนา การจัดหา การดำเนินงาน และการใช้งาน AI ที่ SCANDIC DATA

ติดตาม

บริษัท สแกนดิค แอสเซ็ทส์ เอฟแซดซีโอ
ดูไบซิลิคอนโอเอซิส DDP
อาคาร A1/A2
ดูไบ — 342001
สหรัฐอาหรับเอมิเรตส์

โทรศัพท์ +97 14 3465‑949
อีเมล Info@ScandicAssets.dev
เป็นตัวแทนของแบรนด์และเป็นตัวแทนโดย:

บริษัท สแกนดิค ทรัสต์ กรุ๊ป จำกัด
ศูนย์ธุรกิจไอคิว
ถนน Bolsunovska 13‑15
เคียฟ — 01014, ยูเครน

โทรศัพท์ +38 09 71 880‑110
อีเมล Info@ScandicTrust.com
เป็นตัวแทน

พันธมิตรความร่วมมือคือ:

LEGIER Beteiligungs mbH
คูร์เฟอร์สเตนดัม 14
10719 เบอร์ลิน
สหพันธ์สาธารณรัฐเยอรมนี

HRB 57837 – รหัสภาษีมูลค่าเพิ่ม DE 413445833
โทรศัพท์ +49 (0) 30 99211‑3469
อีเมล: Office@LegierGroup.com

SCANDIC ASSETS FZCO และ LEGIER Beteiligungs mbH เป็นผู้ให้บริการที่ไม่ได้ดำเนินการกิจกรรมการดำเนินงาน กิจกรรมการดำเนินงานดำเนินการโดย SCANDIC TRUST GROUP LLC

ปฏิญญานี้ได้รับคำแนะนำจากพระราชบัญญัติ AI ของสหภาพยุโรปที่กำลังจะมีขึ้น, GDPR, PDPL, กฎระเบียบเฉพาะด้านคลาวด์และโทรคมนาคม และแนวปฏิบัติที่ดีที่สุดระดับสากล เป้าหมายของปฏิญญานี้คือการส่งเสริมนวัตกรรมควบคู่ไปกับการจัดการความเสี่ยงเพื่อสร้างความเชื่อมั่นให้กับลูกค้า พนักงาน และสังคม

ภาพรวมห้องสมุด

– 1. ค่านิยมหลักและหลักการชี้นำ
– 2. การกำกับดูแลและความรับผิดชอบ
– 3. กรอบกฎหมายและข้อบังคับ
– 4. จริยธรรมข้อมูลและการคุ้มครองข้อมูล
– 5. ความโปร่งใสและการอธิบายได้
– 6. ความยุติธรรม อคติ และการรวมเข้าด้วยกัน
– 7. การตัดสินใจแบบมีส่วนร่วมและการตัดสินใจที่สำคัญ
– 8. ความปลอดภัยและความแข็งแกร่ง
– 9. ความยั่งยืน
– 10. AI ในการดำเนินงานศูนย์ข้อมูล
– 11. การฝึกอบรม การตระหนักรู้ และวัฒนธรรม
– 12. การติดตาม ตรวจสอบ และการปรับปรุงอย่างต่อเนื่อง


1. ค่านิยมหลักและหลักการชี้นำ


– การเน้นคนเป็นศูนย์กลาง: AI ถูกออกแบบมาเพื่อรองรับผู้คน แอปพลิเคชันต้องเคารพศักดิ์ศรีและอิสระของลูกค้าพนักงาน และคู่ค้า การตัดสินใจที่มีผลกระทบอย่างมีนัยสำคัญ (เช่น การยกเลิกสัญญาเนื่องจากเหตุการณ์ด้านความปลอดภัย) มักกระทำโดยบุคคล การปฏิบัติตามกฎหมาย: ระบบ AI ทั้งหมดปฏิบัติตามกฎหมายที่เกี่ยวข้อง (GDPR, PDPL, พระราชบัญญัติ AI ของสหภาพยุโรป, กฎหมายโทรคมนาคมและพลังงาน) ยกเว้นการปฏิบัติด้าน AI ต้องห้าม (เช่น การเฝ้าระวังข้อมูลทางชีวภาพจำนวนมาก) ความรับผิดชอบและความรับผิดชอบ: มีการกำหนดผู้รับผิดชอบสำหรับแต่ละระบบ AI การตัดสินใจมีความโปร่งใส โต้แย้งได้ และสามารถตรวจสอบโดยมนุษย์ได้ การบันทึกข้อมูลและบันทึกการตรวจสอบช่วยให้การติดตามเป็นไปอย่างราบรื่น ความเป็นสัดส่วน: การใช้ AI นั้นขึ้นอยู่กับวัตถุประสงค์และความเสี่ยง แอปพลิเคชันที่มีความเสี่ยงสูง (เช่น การปิดเครือข่ายอัตโนมัติในกรณีที่มีการแจ้งเตือนด้านความปลอดภัย) จะต้องอยู่ภายใต้กลไกการควบคุมที่เข้มงวด ความโปร่งใส: ผู้ใช้งานพนักงานจะได้รับแจ้งเมื่อมีการใช้ AI พร้อมทั้งอธิบายหลักการและฟังก์ชันของระบบอย่างชัดเจน ความยุติธรรมและการรวม: AI ต้องไม่เลือกปฏิบัติต่อบุคคลใด ๆ โดยพิจารณาจากแหล่งกำเนิด เพศ อายุ ความพิการ หรือลักษณะเฉพาะที่ละเอียดอ่อนอื่น ๆ อคติต้องได้รับการระบุและลดให้เหลือน้อยที่สุด ความปลอดภัยและความยืดหยุ่น: ระบบ AI ได้รับการเสริมความแข็งแกร่งเพื่อป้องกันการบิดเบือนและการประพฤติมิชอบ เหตุการณ์ด้านความปลอดภัยจะได้รับการรายงานและวิเคราะห์เชิงรุก ความยั่งยืน: เราคำนึงถึงผลกระทบทางนิเวศวิทยาของโครงสร้างพื้นฐาน AI ของเรา แบบจำลองประหยัดพลังงาน ฮาร์ดแวร์ประหยัดทรัพยากร และการดำเนินงานศูนย์ข้อมูลที่ยั่งยืนเป็นมาตรฐาน


2. การกำกับดูแลและความรับผิดชอบ


คณะกรรมการจริยธรรม AI ระดับกลุ่มจะกำกับดูแลโครงการริเริ่ม AI ทั้งหมด ซึ่งประกอบด้วยผู้เชี่ยวชาญจากฝ่ายกฎหมาย การคุ้มครองข้อมูล ความปลอดภัยไอที เทคโนโลยีศูนย์ข้อมูล การดำเนินงาน และทรัพยากรบุคคล คณะกรรมการนี้จะตรวจสอบโครงการ AI ใหม่ ประเมินความเสี่ยง และอนุมัติแอปพลิเคชันที่มีความเสี่ยงสูง แนวทางภายในจะควบคุมการใช้ AI และบูรณาการกับนโยบายการปฏิบัติตามกฎระเบียบ การคุ้มครองข้อมูล และห่วงโซ่อุปทานที่มีอยู่ แต่ละโครงการจะมีเจ้าของที่ได้รับมอบหมายเพื่อจัดการการพัฒนา การดำเนินงาน และการตรวจสอบระบบ (แบบจำลอง RACI) คณะกรรมการ ESG ของ SCANDIC GROUP รับรองว่าหัวข้อ AI จะถูกรวมเข้ากับกลยุทธ์ขององค์กร และรายงานต่อฝ่ายบริหารและคณะกรรมการที่ปรึกษา


3. กรอบกฎหมายและข้อบังคับ


SCANDIC DATA ปฏิบัติตามมาตรฐานทางกฎหมายที่เกี่ยวข้องทั้งหมด:

– พระราชบัญญัติ AI ของสหภาพยุโรป: สำหรับแอปพลิเคชันที่มีความเสี่ยงสูง (เช่น การควบคุมการเข้าถึงข้อมูลไบโอเมตริกส์ การตอบสนองต่อเหตุการณ์อัตโนมัติ) เราจะดำเนินการประเมินผลกระทบ จัดทำเอกสารแหล่งข้อมูล วิธีการฝึกอบรม และมาตรวัดประสิทธิภาพ และตรวจสอบการปฏิบัติตามอย่างต่อเนื่อง กฎ GDPR, PDPL และ ePrivacy: สำหรับการวิเคราะห์และการปรับแต่งส่วนบุคคลที่รองรับ AI เราจะใช้เฉพาะข้อมูลที่ถูกต้องตามกฎหมายเท่านั้น ข้อมูลส่วนบุคคลจะถูกย่อให้เล็กที่สุด ปกปิดตัวตน หรือไม่เปิดเผยตัวตน กฎระเบียบด้านไอทีและความปลอดภัย: เราปฏิบัติตามมาตรฐาน ISO (ISO/IEC 27001, 27017, 27701) กรอบงาน NIST, การป้องกันพื้นฐานด้าน IT ของ BSI และมาตรฐานเฉพาะอุตสาหกรรมสำหรับศูนย์ข้อมูลและผู้ให้บริการระบบคลาวด์ กฎหมายแรงงานและห่วงโซ่อุปทาน: ระบบที่ใช้ AI จะไม่ถูกนำมาใช้เพื่อตรวจสอบพนักงาน เว้นแต่จะได้รับอนุญาตตามกฎหมายและเป็นไปตามสัดส่วน ในบริบทของห่วงโซ่อุปทาน เราใช้ AI เพื่อวิเคราะห์ความเสี่ยงโดยไม่ใช้เกณฑ์การเลือกปฏิบัติ


4. จริยธรรมข้อมูลและการคุ้มครองข้อมูล


การจัดการข้อมูลอย่างมีความรับผิดชอบเป็นรากฐานของกลยุทธ์ AI ของเรา เรามั่นใจว่าข้อมูลการฝึกอบรมและการผลิต:

– ได้รับการเก็บรวบรวมโดยชอบด้วยกฎหมาย – ปฏิบัติตามหลักการลดข้อมูลให้น้อยที่สุด – ปราศจากอคติที่เลือกปฏิบัติ – ได้รับการจัดเก็บและประมวลผลในสภาพแวดล้อมที่ปลอดภัย – ในกรณีของข้อมูลที่ละเอียดอ่อน (เช่น ข้อมูลด้านสุขภาพ) จะใช้เฉพาะเมื่อได้รับความยินยอมอย่างชัดแจ้งเท่านั้น

นอกจากนี้ ยังมีการบันทึกแหล่งที่มาของข้อมูลเพื่อให้สามารถติดตามแหล่งที่มาที่รวมอยู่ในแบบจำลองได้ เมื่อใช้ข้อมูลสังเคราะห์หรือแบบจำลองเชิงกำเนิด เราจะทำเครื่องหมายเนื้อหาว่าสร้างโดย AI


5. ความโปร่งใสและการอธิบายได้


เราระบุการโต้ตอบกับ AI (เช่น แชทบอท ระบบแนะนำ) อย่างชัดเจนและคลุมเครือ ผู้ใช้จะได้รับข้อมูลที่เข้าใจง่ายเกี่ยวกับวิธีการทำงานของระบบ ปัจจัยสำคัญที่นำมาพิจารณาในการตัดสินใจ และวิธีที่พวกเขาสามารถร้องขอการตรวจสอบโดยมนุษย์ได้หากจำเป็น เมื่อตัดสินใจเกี่ยวกับมาตรการรักษาความปลอดภัย (เช่น การบล็อกที่อยู่ IP โดยอัตโนมัติ) เราจะเปิดเผยเกณฑ์ที่เกี่ยวข้องโดยไม่เปิดเผยความลับทางการค้า กระบวนการตัดสินใจจะถูกบันทึกไว้เพื่ออำนวยความสะดวกในการตรวจสอบภายในหรือภายนอก


6. ความยุติธรรม อคติ และการรวมเข้าด้วยกัน


อัลกอริทึมของเราได้รับการทดสอบอย่างเป็นระบบเพื่อแยกแยะ ซึ่งรวมถึงการวิเคราะห์ทางสถิติของข้อมูลการฝึกอบรม กลุ่มทดสอบที่หลากหลาย และการตรวจสอบการดำเนินงานอย่างสม่ำเสมอ เราใช้กระบวนการเพื่อระบุการปฏิบัติที่ไม่เท่าเทียมกัน (เช่น การวิเคราะห์ผลกระทบที่แตกต่างกัน) และแก้ไขแบบจำลองให้เหมาะสม โดยให้ความสำคัญเป็นพิเศษกับกลุ่มที่มีความเสี่ยง ระบบต้องไม่อนุญาตให้มีการใช้ประโยชน์จากจุดอ่อนทางปัญญา ในด้านการจัดการความจุและการกำหนดราคาบริการคลาวด์ เราระมัดระวังที่จะไม่เลือกปฏิบัติต่อลูกค้าโดยพลการ


7. การตัดสินใจแบบมีส่วนร่วมและการตัดสินใจที่สำคัญ


ระบบอัตโนมัติไม่ควรเข้ามาแทนที่ความเชี่ยวชาญของมนุษย์ในการตัดสินใจด้านความปลอดภัยหรือการตัดสินใจที่สำคัญทางธุรกิจ ในกรณีฉุกเฉิน การยกเลิกสัญญาเนื่องจากการละเมิด หรือการเปลี่ยนแปลงการกำหนดค่าที่สำคัญ คำแนะนำที่สนับสนุนโดย AI จะได้รับการตรวจสอบโดยบุคลากรที่มีคุณสมบัติเหมาะสมเสมอ มีกลไกการยกระดับและยกเลิก ("human-in-the-loop") เพื่อให้มั่นใจว่ามนุษย์ยังคงสามารถควบคุมได้อย่างเต็มที่


8. ความปลอดภัยและความแข็งแกร่ง


ระบบ AI ทุกระบบได้รับการเสริมความแข็งแกร่งเพื่อรับมือกับการโจมตีแบบต่อต้าน การแทรกข้อมูลอย่างรวดเร็ว การวางยาพิษข้อมูล และการพยายามบิดเบือนข้อมูลอื่นๆ เราใช้กลยุทธ์การป้องกันเชิงลึก ได้แก่ การจำกัดการเข้าถึง การตรวจสอบสิทธิ์อย่างเข้มงวด การเข้ารหัส การตรวจสอบอย่างต่อเนื่อง และการทดสอบทีมรักษาความปลอดภัย เหตุการณ์ด้านความปลอดภัยจะได้รับการตรวจสอบ บันทึกข้อมูล และแก้ไขอย่างทันท่วงที แผนการรับมือเหตุการณ์จะสร้างห่วงโซ่การรายงานและกำหนดมาตรการรับมือ แบบจำลองจะได้รับการอัปเดตเป็นประจำเพื่อแก้ไขช่องโหว่ที่ทราบแล้ว


9. ความยั่งยืน


การพัฒนาและการดำเนินงานของ AI ต้องใช้ทรัพยากรมาก SCANDIC DATA อาศัยสถาปัตยกรรมแบบจำลองที่ประหยัดพลังงาน ฮาร์ดแวร์ที่ประหยัดทรัพยากร (เช่น GPU/TPU ที่มีประสิทธิภาพต่อวัตต์สูง) และโครงสร้างพื้นฐานที่ปรับขนาดได้ ศูนย์ข้อมูลของเราใช้พลังงานหมุนเวียนและปรับปริมาณงานให้เหมาะสมเพื่อลดการใช้พลังงานและความต้องการด้านระบบระบายความร้อน การอัปเดตและการฝึกอบรมแบบจำลองได้รับการกำหนดเวลาไว้เพื่อหลีกเลี่ยงงานประมวลผลที่ไม่จำเป็น อุปกรณ์เก่าจะถูกนำไปรีไซเคิลหรือกำจัดทิ้งอย่างถูกต้อง


10. AI ในการดำเนินงานศูนย์ข้อมูล


SCANDIC DATA ใช้ AI เพื่อให้การดำเนินงานศูนย์ข้อมูลมีประสิทธิภาพ ปลอดภัย และยั่งยืนมากขึ้น:

– การบำรุงรักษาเชิงคาดการณ์: โมเดลการเรียนรู้ของเครื่องจะวิเคราะห์ข้อมูลเซ็นเซอร์และการปฏิบัติงานจากเซิร์ฟเวอร์ UPS ระบบปรับอากาศ และส่วนประกอบของกริด เพื่อคาดการณ์ความน่าจะเป็นที่จะเกิดความล้มเหลว มีการกำหนดตารางการบำรุงรักษาก่อนที่จะเกิดการหยุดชะงัก การจัดการพลังงานและความเย็น: อัลกอริทึม AI เพิ่มประสิทธิภาพการไหลของพลังงาน การปรับสมดุลโหลดระหว่างชั้นวาง และการใช้ประโยชน์ของระบบระบายความร้อนเพื่อรักษาประสิทธิภาพการใช้พลังงาน (PUE) ให้ต่ำกว่า 1.25 การวิเคราะห์ความปลอดภัย: แบบจำลองการตรวจจับความผิดปกติสามารถระบุการเข้าถึงที่ผิดปกติ รูปแบบการโจมตีแบบ DDoS การรั่วไหลของข้อมูล หรือภัยคุกคามจากภายใน ผลลัพธ์จะถูกรวมไว้ในแพลตฟอร์ม SIEM/SOAR ของเรา การวางแผนความจุ: AI คาดการณ์ความต้องการทรัพยากรการประมวลผลและการจัดเก็บข้อมูล ช่วยให้เราปรับการจัดหาฮาร์ดแวร์ การจำลองเสมือน และความจุของเครือข่ายได้อย่างทันท่วงที แชทบอทและการสนับสนุน: ผู้ช่วยอัจฉริยะจะให้การสนับสนุนด้านการสอบถามข้อมูลมาตรฐาน การกำหนดตั๋ว และเอกสารทางเทคนิค คำถามที่ซับซ้อนกว่าจะถูกส่งต่อไปยังพนักงานที่เป็นมนุษย์

หลักจริยธรรมที่กล่าวข้างต้นจะถูกนำมาพิจารณาในกรณีการใช้งานทั้งหมด


11. การฝึกอบรม การตระหนักรู้ และวัฒนธรรม


SCANDIC DATA ส่งเสริมวัฒนธรรมองค์กรที่พนักงานตั้งคำถามต่อการตัดสินใจด้าน AI และใช้เทคโนโลยีอย่างมีความรับผิดชอบ โปรแกรมการฝึกอบรมจะสอนพื้นฐานเกี่ยวกับจริยธรรมของ AI การปกป้องข้อมูล การตระหนักรู้ด้านความปลอดภัย คุณภาพของข้อมูล และวิธีการจัดการกับอคติ พนักงานได้รับการสนับสนุนให้รายงานความผิดปกติและมีส่วนร่วมในกระบวนการปรับปรุงอย่างต่อเนื่อง ฝ่ายบริหารมั่นใจว่าการพิจารณาด้านจริยธรรมจะถูกรวมไว้ในทุกขั้นตอนของโครงการ (การออกแบบ การพัฒนา การนำไปใช้งาน และการดำเนินงาน)


12. การติดตาม ตรวจสอบ และการปรับปรุงอย่างต่อเนื่อง


ระบบ AI ของเราได้รับการตรวจสอบอย่างต่อเนื่อง รายงานประจำจะระบุตัวชี้วัดสำคัญๆ เช่น ความแม่นยำ ความเป็นธรรม อัตราผลบวกลวง การใช้พลังงาน การปล่อยก๊าซคาร์บอนไดออกไซด์ และความพึงพอใจของผู้ใช้ การตรวจสอบทั้งภายในและภายนอกจะตรวจสอบการปฏิบัติตามนโยบาย AI ข้อมูลเชิงลึกจากการตรวจสอบ ความคิดเห็นของผู้ใช้ และการวิเคราะห์ทางเทคนิคจะถูกนำไปใช้ในการปรับปรุงแบบจำลองและกระบวนการต่างๆ คำชี้แจงนี้จะได้รับการปรับปรุงอย่างน้อยปีละครั้ง หรือเมื่อมีการเปลี่ยนแปลงที่สำคัญเกิดขึ้น