สวัสดีท่านผู้อ่านทุกท่าน
พักหลังมานี้ ผมเชื่อว่าหลายท่านเริ่มคุ้นเคยกับการใช้ AI อย่าง ChatGPT หรือเครื่องมือล้ำๆ มาช่วยทำงานกันมากขึ้นแล้วใช่ไหมครับ? บางคนเอามาช่วยร่างอีเมล บางคนเอามาช่วยวิเคราะห์ข้อมูล หรือแม้แต่ช่วยวางกลยุทธ์ธุรกิจ
เวลาเราพูดถึงปัญหาของ AI เรามักจะกังวลกันว่า “ข้อมูลที่ใช้สอน AI มันมีอคติ (Bias) หรือเปล่า?” ซึ่งนั่นก็ถูกครับ แต่มันเป็นแค่ยอดเขาน้ำแข็งเท่านั้นเอง เพราะจากบทความล่าสุดใน Harvard Business Review (โดย Grace Chang และ Heidi Grant) เขาชี้ให้เห็นประเด็นที่น่ากลัวกว่านั้น คือ “อคติในตัวเราเอง” (Cognitive Bias) นี่แหละครับที่กำลังเข้าไปบิดเบือนการทำงานของ AI ให้แย่ลงโดยที่เราไม่รู้ตัว
เรามาลองสำรวจกันครับว่า “อคติ” ของเรา เข้าไปแทรกซึมอยู่ในตอนไหนของการใช้ AI บ้าง?
1. อคติ “ก่อน” เริ่มสั่งงาน (Before Prompting)
บางครั้งเรามีกำแพงในใจตั้งแต่ยังไม่ได้เปิดแอปฯ เลยครับ
- Halo & Horns Effect: อคติจากการ “เหมารวม”
- Halo Effect มันคืออาการ “รักแล้วรักเลย” ครับ ถ้าเราเคยใช้ AI ทำงานบางอย่างแล้วมันออกมาดีมาก เช่น ให้ช่วยเขียนโค้ดหรือร่างคำกล่าวเปิดงานแล้วดูเป็นมืออาชีพสุดๆ เราจะเริ่ม “ลำเอียง” และเชื่อมั่นว่า AI ตัวนี้เก่งไปหมดทุกเรื่อง จนลืมตรวจสอบความถูกต้องเมื่อเอามันไปใช้ในงานที่มันไม่ถนัด (เช่น งานที่ต้องใช้ความเห็นอกเห็นใจคนจริงๆ) เราจะหลับหูหลับตาเชื่อคำตอบของมันจนอาจเกิดความผิดพลาดได้
- Horns Effect ตรงกันข้ามครับ คืออาการ “ฝังใจกับเรื่องแย่ๆ” ถ้าเราเคยเจอ AI “มั่ว” ข้อมูลครั้งหนึ่ง หรือได้ยินข่าวลบๆ เช่น งานวิจัยจาก MIT ที่บอกว่าคนใช้ AI เขียนเรียงความแล้วสมองทำงานลดลง หรือข่าวทนายความที่ถูกลงโทษเพราะใช้ AI อ้างอิงคดีที่ไม่มีอยู่จริง เราจะเกิดอาการ “เข็ดขยาด” จนปฏิเสธการใช้ AI ไปเลย ทั้งที่ในบางงานมันอาจจะเป็นผู้ช่วยที่ยอดเยี่ยมและช่วยให้ทีมงานทำงานได้เร็วขึ้นหลายเท่าตัว
- ข้อเตือนใจสำหรับผู้นำ ถ้าคนในทีมของคุณแอนตี้ AI หรือในทางกลับกันคือเชื่อ AI มากจนไม่ใช้สมองตัวเอง ลองเช็คดูนะครับว่าเขากำลังติดกับดัก Halo หรือ Horns Effect นี้อยู่หรือเปล่า
- Confirmation Bias (อคติยืนยันตัวเอง) อันนี้คือตัวแสบ ที่พบได้บ่อยที่สุดเลยครับ มันคือการที่เรามีความเชื่อหรือมีคำตอบในใจอยู่แล้ว แล้วเราก็พยายามใช้ AI มาเป็นเครื่องมือเพื่อหาเหตุผลสนับสนุนสิ่งที่เราเชื่อ โดยมองข้ามข้อมูลด้านอื่นไปอย่างสิ้นเชิง
- ตัวอย่างเช่น ถ้าคุณเป็นหัวหน้าที่เชื่อว่าพนักงานคนหนึ่งทำงานแย่เพราะความขี้เกียจ คุณอาจจะสั่ง AI ว่า “ช่วยร่างอีเมลเตือนพนักงานที่ไม่มีความรับผิดชอบและชอบอู้งานหน่อย” แทนที่จะถามแบบเป็นกลางว่า “ปัจจัยอะไรบ้างที่ทำให้พนักงานคนหนึ่งมีประสิทธิภาพการทำงานลดลง?”
- ผลเสียคือ AI จะช่วยคุณสร้างเหตุผลและข้อความที่ตอกย้ำว่าเขาขี้เกียจ ทั้งที่จริงๆ แล้วเขาอาจจะกำลังป่วย มีปัญหาทางบ้าน หรือระบบงานในบริษัทมีปัญหา ซึ่งถ้าคุณตั้งโจทย์ผิดแต่แรกเพราะอคติ AI ก็จะช่วยคุณแก้ปัญหาผิดจุด และอาจลุกลามจนกลายเป็นความไม่เป็นธรรมในที่ทำงานได้ครับ
2. อคติในระหว่างการสั่งงาน (During Prompting)
วิธีที่เรา “ตั้งคำถาม” หรือ Prompt นั่นแหละครับคือตัวดี
- Leading Question Bias เรามักจะถามนำ เช่น “ทำไมแผนการตลาดนี้ถึงดีที่สุด?” AI ก็จะทำหน้าที่เป็น ลูกน้องที่แสนดี หาแต่ข้อสนับสนุนมาให้เรา จนเราลืมนึกถึงความเสี่ยงหรือข้อเสียไปเลย
- Expediency Bias ยุคนี้อะไรก็ต้องเร็ว พอ AI พ่นคำตอบแรกออกมา เราก็มักจะมองว่า “เอาล่ะ แค่นี้ก็ดีพอแล้ว (Good enough)” แล้วก็ก๊อปปี้ไปใช้ทันทีโดยไม่ได้ตรวจสอบความถูกต้องหรือความสมเหตุสมผลอย่างจริงจัง
3. อคติหลังจากที่ได้ผลลัพธ์ออกมาแล้ว (After Prompting)
แม้จะได้คำตอบมาแล้ว แต่อคติก็ยังตามมาหลอกหลอนครับ
- Endowment Effect ถ้าเราใช้ความพยายามอย่างมากในการปั้น Prompt จนได้ผลงานชิ้นนี้ออกมา เราจะรู้สึกรัก และ หวงแหนผลงานชิ้นนี้มากเป็นพิเศษ จนไม่ยอมรับฟังคำวิจารณ์จากคนอื่น หรือไม่ยอมปรับปรุงทั้งที่มีทางเลือกที่ดีกว่า
- Framing Effect (อคติจากการตีกรอบ) เรื่องนี้คือการที่ วิธีการเล่ามีผลต่อการตัดสินใจมากกว่า ตัวเนื้อหา เสียอีกครับ แม้ข้อมูลจะเหมือนกันเป๊ะ แต่ถ้าเราเลือกนำเสนอในมุมที่ต่างกัน ความรู้สึกของคนที่ฟังก็ต่างกันคนละโลกเลย
- ตัวอย่าง: สมมติคุณให้ AI ช่วยสรุปผลสำรวจความพึงพอใจของลูกค้า แล้ว AI บอกว่า “มีลูกค้า 80% ที่ชอบฟีเจอร์ใหม่นี้”
- ถ้าคุณอยากขายโปรเจกต์ต่อ คุณจะรายงานว่า: “ข่าวดีครับ! ลูกค้าส่วนใหญ่ถึง 80% แฮปปี้กับฟีเจอร์ใหม่มาก เราควรลุยต่อครับ” (ตีกรอบที่ความสำเร็จ)
- แต่ถ้าคุณ ไม่อยากทำต่อ คุณจะรายงานว่า: “ยังมีลูกค้าอีกตั้ง 20% ที่ไม่โอเคกับเรื่องนี้นะครับ เรายังมีความเสี่ยงอยู่มาก” (ตีกรอบที่ความล้มเหลว)
- จุดที่ต้องระวัง AI อาจจะให้ข้อมูลที่ เป็นกลาง มาให้ (เช่น ตัวเลข 80/20) แต่ความอันตรายอยู่ที่ คนใช้ครับ ถ้าเรามีอคติอยู่แล้ว เราจะเลือกหยิบ AI มาช่วยเขียนสรุปในทางที่เข้าข้างความคิดตัวเอง เพื่อโน้มน้าวคนอื่นให้หลงเชื่อตามกรอบที่เราวางไว้ ซึ่งอาจทำให้ทีมตัดสินใจพลาดได้ครับ
- ตัวอย่าง: สมมติคุณให้ AI ช่วยสรุปผลสำรวจความพึงพอใจของลูกค้า แล้ว AI บอกว่า “มีลูกค้า 80% ที่ชอบฟีเจอร์ใหม่นี้”
เราจะ “แก้เกม” อคติเหล่านี้ได้อย่างไร?
การบริหารจัดการ AI ไม่ใช่แค่เรื่องทางเทคนิคครับ แต่เป็นเรื่องของการ บริหารความคิด ของเราด้วย ผมมี 3 แนวทางที่น่าสนใจมาฝากครับ
1. ฝึกหยุด และ วิเคราะห์ (Interrupt Automatic Thinking) เวลาจะตัดสินใจอะไรสำคัญ ๆ อย่าใช้ความรู้สึกแรกครับ ให้หยุดชั่วครู่เพื่อกระตุ้นสมองส่วนหน้า (Prefrontal Cortex) ให้ทำงาน ลองตั้งคำถามกับตัวเองว่า “เรามีสมมติฐานที่แสดงถึงอคติในเรื่องนี้ที่ซ่อนอยู่หรือเปล่า?” หรือลองมองปัญหาในมุมของคนนอกดูบ้าง
2. ใช้ AI ให้เป็น Devil’s Advocate แทนที่จะให้ AI ช่วยอวยเรา ลองสั่งให้มัน “จับผิด” เราดูบ้างครับ เช่น
- “ช่วยวิจารณ์แผนงานนี้ในมุมมองของคู่แข่งหน่อย”
- “ช่วยบอกข้อโต้แย้งที่อาจจะเกิดขึ้นถ้าผมนำเสนอเรื่องนี้”
3. สร้างระบบตรวจสอบในทีม (Build Systems) ถ้าเราทำคนเดียวอาจจะพลาด ลองใช้เทคนิคอย่าง Pre-mortem (จินตนาการว่าถ้าโครงการนี้เจ๊ง มันจะเจ๊งเพราะอะไร?) หรือการกำหนดให้มีคนในทีมทำหน้าที่เป็นคนคอยคัดค้าน (Devil’s Advocate) เพื่อเช็คความรอบคอบก่อนตัดสินใจ
สรุปส่งท้าย
AI คือเครื่องทุ่นแรงที่ยอดเยี่ยมครับ แต่อย่าปล่อยให้มันเป็น เครื่องขยายอคติของเรา ในฐานะผู้นำหรือคนทำงานมืออาชีพ เราต้องเป็นคนกุมบังเหียน AI ด้วย “การคิดเชิงวิพากษ์” (Critical Thinking) เสมอ
ใช้ AI ให้เป็นพาร์ทเนอร์ที่คอยท้าทายความคิดเรา ไม่ใช่แค่เครื่องมือที่คอยพยักหน้าเออออไปกับอคติของเรานะครับ
แล้วพบกันใหม่บทความหน้าครับ
ใส่ความเห็น