Gartner

Fundamental guardrails to address AI risk and value

แนวทางป้องกันพื้นฐานรับมือความเสี่ยงและคุณค่าของ AI

By Svetlana Sicular, VP analyst at Gartner

The rapid adoption of generative AI has generated much debate about AI’s potential effects on society. Organisations must balance the technology’s significant potential with the new risks it poses, particularly misuse.

It’s important for organisations to put in place appropriate guardrails to leverage the technology’s potential, while also addressing its challenges. This can be achieved by putting a flexible governance framework in place that is tailored to AI’s unique features, while ensuring the technology is used safely and responsibly. But what exactly is AI governance and why should organisations take it seriously?

Although seemingly a paradox, good governance actually enables better innovation. It provides the constraints and guardrails that give organisations the ability to explore questions about AI’s value and risks, as well as the space within which to innovate and start to produce results.

Scaling AI without governance is ineffective and dangerous. Society expects organisations to operate with transparency, accountability and ethics. AI governance is therefore necessary to meet these societal demands, while supporting progress by dealing with complexity, ambiguity and rapid technological evolution.

As well as considering broader societal impacts and regulatory compliance, organisations need to balance the competing requirements of trust and control in the workplace with business value, corporate risk and the privacy of individual employees, customers and citizens.

For example, AI governance must provide bias mitigation guidelines and validation requirements, with consideration of cultural differences and regulations protecting the rights of individuals and groups. Bias can negatively affect the level of acceptance of AI in organisations and in society as a whole.

For multinational organisations, bias is a fiendish problem because cultural norms and associated regulations, such as consumer protection laws, vary from one country to another.

It’s important for organisations to identify people to manage any organisational, societal, customer and employee facing considerations. These people should represent diverse ways of thinking, backgrounds and roles. Then differentiate governance decisions and decision rights by leveraging their expertise and perspectives.

Decision rights establish authority and accountability for business, technology and ethical decisions. They should be concentrated on the most critical AI content, which should be governed aggressively.

 On the other hand, organisations can allow greater autonomy in decision rights for non-critical AI content, but employees that use AI assistance must be aware that they are accountable for the resulting outcomes.

 Addressing AI complexity with governance

AI encompasses a continually evolving technological landscape and this complexity — together with the ambiguity intrinsic to AI’s nature — leads to a lack of clarity around its reputational, business and societal impacts.

Governance should reflect AI’s cross-functional and predictive characteristics. A mistake many organisations make is having AI governance as a standalone initiative. It should instead be an extension of the measures that are already in place in the organisation.

Taking advantage of existing governance approaches and reusing the current successes achieved makes the task of managing AI impacts less daunting and more easily understood. While many approaches apply to AI, including data classification, standards and communication practices, there are unique characteristics – trust, transparency and diversity. How they apply to people, data and techniques is important.

Critical AI-related decisions in many organisations are made by an AI council. This is generally chaired by the CIO or CDAO, as well as involving a working group with representatives from across the business. This diverse group of stakeholders needs to have direct working relationships with other governance groups to spearhead AI governance efforts.

One of the council’s first efforts is ensuring compliance with relevant regulations. While privacy is the top and most visible concern, there will also be all kinds of legal and industry-specific requirements that have to be met.

AI governance starts with the outcomes that support business goals. The goal for an AI pilot or proof of concept should be to prove the value as defined and confirmed by the council jointly with other business stakeholders, not on measurements like accuracy or to compare technical tools.

 For AI-advanced organisations, this includes governance of the entire AI lifecycle with the goal to enable reusability of AI components and accelerate delivery and scale AI across the enterprise.

โดย สเวตลานา ซิคูลาร์ รองประธานฝ่ายนักวิเคราะห์ การ์ทเนอร์

การนำ Generative AI มาใช้อย่างรวดเร็วก่อให้เกิดข้อถกเถียงอย่างมากถึงผลกระทบของ AI ที่มีต่อสังคม ซึ่งองค์กรจะต้องสร้างสมดุลระหว่างศักยภาพเทคโนโลยีที่มีความสำคัญนี้กับความเสี่ยงใหม่ ๆ ที่อาจเกิดขึ้น โดยเฉพาะการใช้ AI ไปในทางที่ผิด

องค์กรควรมีแนวทางป้องกันอย่างเหมาะสมเพื่อยกระดับศักยภาพเทคโนโลยี พร้อมรับมือความท้าทายที่เกิดขึ้น ซึ่งสามารถทำได้โดยการวางกรอบการกำกับดูแลหรือ Governance Framework ที่มีความยืดหยุ่นและสามารถปรับให้เหมาะกับคุณสมบัติเฉพาะของ AI พร้อมมั่นใจว่าเทคโนโลยีนี้จะได้รับการนำไปใช้อย่างปลอดภัยและมีความรับผิดชอบแต่แท้จริง AI Governance คืออะไร และเหตุใดองค์กรควรให้ความสำคัญอย่างจริงจัง?

แม้เป็นคำที่ดูสวนทางกัน แต่การกำกับดูแลที่ดีนั้นทำให้เกิดนวัตกรรมที่ดียิ่งกว่า เนื่องจากนำเสนอข้อจำกัดและแนวทางป้องกันที่ทำให้องค์กรสามารถทำความเข้าใจกับคำถามทั้งในด้านคุณค่าและความเสี่ยงของ AI รวมถึงมีพื้นที่สร้างสรรค์นวัตกรรมและผลลัพธ์

การขยายขอบเขตการใช้งาน AI โดยปราศจากการควบคุมดูแลนั้นทำให้ไม่เกิดประสิทธิภาพและเป็นอันตราย สังคมต่างคาดหวังให้องค์กรดำเนินงานด้วยความโปร่งใส รับผิดชอบและมีจริยธรรม ดังนั้นการควบคุมดูแล AI จึงมีความจำเป็นเพื่อตอบสนองต่อความต้องการทางสังคมเหล่านี้ พร้อมยังคงให้ความสำคัญกับความก้าวหน้าในการจัดการกับความซับซ้อน ความคลุมเครือ และวิวัฒนาการทางเทคโนโลยีที่เปลี่ยนรวดเร็ว

นอกจากการพิจารณาผลกระทบต่อสังคมวงกว้างและการปฏิบัติตามกฎระเบียบ องค์กรจำเป็นต้องสร้างสมดุลระหว่างข้อกำหนดเพื่อสร้างความไว้วางใจในการแข่งขันและควบคุมการใช้งานในที่ทำงานร่วมกับคุณค่าทางธุรกิจ ความเสี่ยงต่อองค์กร รวมถึงความเป็นส่วนตัวของพนักงาน ลูกค้าและพลเมืองตามปัจเจกบุคคล

ตัวอย่างเช่น การกำกับดูแล AI จะต้องกำหนดแนวทางการลดอคติและมีข้อกำหนดเพื่อตรวจสอบ โดยคำนึงถึงความแตกต่างทางวัฒนธรรมและระเบียบข้อบังคับที่คุ้มครองสิทธิส่วนบุคคลและกลุ่มบุคคล อคติสามารถส่งผลลบต่อระดับการยอมรับ AI ในองค์กรและในสังคมภาพรวมได้ ซึ่งอคติถือเป็นปัญหาร้ายแรงขององค์กรข้ามชาติ เนื่องจากในแต่ละประเทศมีบรรทัดฐานทางวัฒนธรรมและระเบียบข้อบังคับที่เกี่ยวข้องแตกต่างกัน อาทิ กฎหมายคุ้มครองผู้บริโภค เป็นต้น

สิ่งสำคัญสำหรับองค์กรคือการชี้ชัดบุคลากรที่จะมาจัดการกับปัญหาต่าง ๆ ที่เกี่ยวกับองค์กร สังคม ลูกค้า และพนักงาน ซึ่งควรเป็นผู้ที่มีแนวคิด มีพื้นฐานความรู้และมีบทบาทหลากหลาย จากนั้นแยกแยะการตัดสินใจในการกำกับดูแลและสิทธิการตัดสินใจ โดยใช้ความเชี่ยวชาญและมุมมองที่พวกเขามีสิทธิการตัดสินใจสำหรับกำหนดอำนาจและความรับผิดชอบสำหรับธุรกิจ เทคโนโลยี รวมถึงการตัดสินใจทางจริยธรรม ซึ่งควรมุ่งความสนใจไปที่ AI Content เป็นสิ่งสำคัญที่สุด โดยต้องได้รับการควบคุมดูแลอย่างเข้มงวด แต่ในทางกลับกัน องค์กรสามารถให้มีอิสระในการตัดสินใจด้าน AI Content ที่ไม่สำคัญได้ ขณะที่พนักงานที่ใช้ AI ช่วยทำงานจะต้องตระหนักว่าพวกเขาต้องรับผิดชอบต่อผลลัพธ์ที่เกิดขึ้น

ขจัดความซับซ้อนของ AI ด้วยการกำกับดูแล

AI พัฒนาอยู่ท่ามกลางภูมิทัศน์ทางเทคโนโลยีที่เปลี่ยนแปลงและมีความซับซ้อนอยู่ตลอด รวมถึงมีความคลุมเครือตามธรรมชาติของเทคโนโลยีนี้ ที่สามารถนำไปสู่การขาดความเข้าใจถึงผลกระทบต่อชื่อเสียง ธุรกิจ และสังคม

การกำกับดูแลควรสะท้อนถึงคุณลักษณะการทำงานข้ามฟังก์ชันและคาดการณ์การทำงานของ AI โดยสิ่งที่องค์กรหลายแห่งมักก่อข้อผิดพลาด คือ การกำหนดให้ AI Governance เป็นโครงการแบบ Standalone ซึ่งแท้ที่จริงควรเป็นการขยายขอบเขตของมาตรการที่มีอยู่เดิมในองค์กรต่างหาก

การดึงประสิทธิภาพจากแนวทางการกำกับดูแลที่มีอยู่เดิมและการนำแนวทางที่เคยประสบความสำเร็จแล้วกลับมาใช้ซ้ำจะทำให้การจัดการผลกระทบของ AI เป็นเรื่องที่เข้าใจง่ายขึ้นและลดความท้าทายน้อยลง แม้จะมีแนวทางมากมายนำไปใช้กับ AI ได้ เช่น การจำแนกข้อมูล การกำหนดมาตรฐาน และการกำหนดแนวทางการสื่อสาร แต่ก็มีแนวทางที่เป็นลักษณะเฉพาะเช่นกัน ได้แก่ การสร้างความน่าเชื่อถือ ความโปร่งใส และความหลากหลาย รวมถึงวิธีการที่จะนำไปใช้ร่วมกับผู้คน ข้อมูล และเทคนิคต่าง ๆ ก็ถือเป็นสิ่งสำคัญ

การตัดสินใจสำคัญเกี่ยวกับ AI ในองค์กรหลายแห่ง กระทำผ่านคณะกรรมการด้าน AI หรือ AI Council โดยทั่วไปผู้ที่นั่งเป็นประธานจะเป็น ผู้บริหาร CIO หรือ CDAO และมีกลุ่มคณะทำงานที่เป็นตัวแทนจากหน่วยธุรกิจอื่น ๆ ทั่วทั้งองค์กรมาร่วมด้วย โดยกลุ่มคณะกรรมการที่มีความหลากหลายนี้จำเป็นต้องทำงานสัมพันธ์โดยตรงร่วมกับกลุ่มผู้มีหน้าที่กำกับดูแลอื่น ๆ เพื่อเป็นแกนนำในความพยายามผลักดัน AI Governance

ภารกิจแรกของคณะกรรมการ คือ การรับรองการปฏิบัติตามกฎระเบียบที่เกี่ยวข้อง แม้ว่าความเป็นส่วนตัวจะเป็นข้อกังวลสูงสุดและเห็นชัดเจนสุด แต่ก็ยังมีข้อกำหนดทางกฎหมายและข้อกำหนดเฉพาะของแต่ละอุตสาหกรรมทุกประเภทที่ต้องปฏิบัติตาม

การกำกับดูแล AI เริ่มจากความต้องการสนับสนุนเป้าหมายทางธุรกิจ โดยเป้าหมายของ AI ในโครงการนำร่องหรือในกระบวนการพิสูจน์เชิงแนวคิด หรือ Proof Of Concept (POC) นั้นควรเป็นการพิสูจน์คุณค่าตามที่คณะกรรมการกำหนดและอนุมัติร่วมกับผู้มีส่วนได้ส่วนเสียทางธุรกิจอื่น ๆ ไม่ใช่การวัดผล เช่น ความแม่นยำ หรือเปรียบเทียบกับเครื่องมือเทคนิคอื่น ๆ

สำหรับองค์กรที่ใช้ AI ขั้นสูง หรือ AI-Advanced Organisations ยังรวมถึงการกำกับดูแลวงจรชีวิต AI ทั้งหมด ตามเป้าหมายเพื่อให้สามารถนำส่วนประกอบ AI กลับมาใช้ใหม่ได้ พร้อมเร่งการส่งมอบ รวมถึงการปรับขนาดการใช้ AI ให้ครอบคลุมทั่วทั้งองค์กร