![](/_astro/4a876606a0fbd713066d1e502a46292b8eb47d9049083f3f145937eb042bd305-cover.AmYToRXL.webp)
สวัสดีครับ หลังจากหายไปนาน เนื่องจากติดภารกิจหลายอย่างที่นอกจากงานโค้ดแล้ว ผมได้ขยับไปเริ่มทำอย่างอื่นอย่างจริงจังมากขึ้นด้วย อันที่จริงแล้วผมอาจจะเหนื่อยจากงานเดิม กอปรกับการทำงานฝั่งนี้อย่างเดียวมันค่อนข้างจะใช้ความคิดมากไป จนอาจจะทำให้แรงจูงใจต่องานของผมมันเริ่มลดลง แนวทางแก้ไขที่หลายๆคนรอบตัวแนะนำ คือ การขยับไปทำอย่างอื่นบ้าง ผมจึงหายหน้าหายตาไปพักใหญ่
โดยสรุป
ถ้า ai ถูกพัฒนาโดยมีจุดมุ่งหมายเพื่อเป็นเครื่องอยู่ในการอำนวยความสะดวกในการทำงาน เป็นเรื่องที่ดีและน่าสนับสนุน หากแต่ในปัจจุบันเกิดปัญหาบานปลายจนเกินกว่าเป็นการนำไปใช้ในงานที่เป็นความคิดสร้างสรรค์ หรืองานที่ต้องใช้เอกลักษณ์เฉพาะตัว รวมถึงการนำไปใช้ในเชิงส่งผลเสียต่อผู้อื่น ก่อให้เกิดปัญหา จนอาจเรียกได้ว่าเป็นเครื่องมือสร้างอาชญากรรมไปแล้ว ซึ่งเป็นเรื่องที่ผมรับไม่ได้และไม่ควรเกิดขึ้น
Table of contents
Show all topics
มุมมองต่อ ai
การเข้ามาของ ai ในระยะหลังมีการพัฒนาการที่รวดเร็ว จากเดิมที่มีเป้าหมายการพัฒนาที่เน้นการเป็น “เครื่องมือ” อำนวยความสะดวกเพียงอย่างเดียว จนกลายเป็นการใช้ในการสร้างผลงานขึ้นมาใหม่ ซึ่งถ้ามองอย่างฉาบฉวยไม่ได้คิดอะไรมาก ก็เป็นเรื่องที่รับได้ เป็นความก้าวล้ำที่ ai มีการพัฒนาที่เห็นเป็นรูปธรรมจริง ซึ่งเป็นเรื่องที่ค่อนข้างจะขึ้นอยู่กับการกำหนดจุดประสงค์ในการใช้งานของผู้ใช้แล้ว ว่าจะนำไปใช้อย่างไร
ปัญหาของการใช้งาน ai
อย่างที่กล่าวไปแล้วว่า ai มีความยืดหยุ่นในการใช้งานเป็นอย่างมาก ส่วนสิ่งที่เป็นปัญหา คือ การนำไปใช้ผิดวัตถุประสงค์ซึ่งก่อให้เกิดปัญหาที่กระทบต่อบุคคลอื่น
ตัวอย่างเช่น
- การนำไปใช้สังเคราะห์เสียง หรือ ลักษณะเฉพาะอื่นๆ โดยที่ใช้พื้นฐานมาจากบุคคลที่มีตัวตนจริง ซึ่งในปัจจุบันสามารถทำได้แล้ว โดยมีข่าว ซึ่งเกิดปัญหาขึ้นเมื่อไม่นานมานี้ คือ การนำเสียงของบุคคลอื่นมาใช้กระทำสิ่งอื่นโดยที่เจ้าตัวไม่ได้เป็นผู้กระทำ และยังไม่ได้รับการยินยอมจากเจ้าของเสียง (อ้างอิง)
- การนำไปจำลองลักษณะทางกายภาพ ซึ่งมีพื้นฐานมาจากลักษณะทางกายภาพของบุคคลอื่น ไม่ว่าจะเป็นสื่อสิ่งพิมพ์ สื่อมัลติมีเดีย ซึ่งปัจจุบันมี ai หลายตัวที่ทำได้แล้ว
- การถูกขโมยทรัพย์สินทางปัญญา ไปใช้เป็นต้นแบบในการวิเคราะห์ เพื่อสร้างฐานข้อมูลของ ai โดยที่เจ้าของไม่ได้ยินยอม ซึ่งเรื่องนี้เองก็เกิดขึ้นตั้งแต่ ai เริ่มถูกเปิดใช้งานเป็นวงกว้างในระยะแรก ปัจจุบันเองก็ยังไม่ได้รับการแก้ไขอย่างเป็นรูปธรรม
ปัญหาที่ได้ยกตัวอย่างมานั้น ผมมองว่าส่งผลต่อบุคคลที่เป็นต้นแบบโดยตรง ซึ่งเราไม่สามารถรับรู้ได้เลยว่าฐานข้อมูลขนาดมหาศาลที่เกิดจากการเรียนรู้ของ ai นั้นมาจากข้อมูลของใครบ้าง ซึ่งบริษัทเกือบทั้งหมดไม่ได้มีการเปิดข้อมูลส่วนนี้ หากแต่ในทางกลับกัน การนำข้อมูลของเราเข้าสู่ระบบการเรียนรู้ของ ai ก็ไม่พบเห็นการขอความยินยอมจากผู้ใช้ในหลายๆที่เช่นเดียวกัน
หากจะจี้ให้ถูกจุด เกาให้ถูกที่คัน ก็ต้องกล่าวว่าสิ่งที่ผมมองว่าเป็นปัญหาของการใช้งาน ไม่ได้เกิดจากตัว ai เสียทีเดียว แต่เกิดจากการที่ผู้ใช้งาน รวมถึงผู้สร้าง ai บางส่วน มองข้ามเรื่องความเป็นส่วนตัวของผู้อื่น การขอความยินยอมจากบุคคลต้นแบบเสียมากกว่า
และหากจะกล่าวว่าในสังคมที่ให้ความสำคัญกับเรื่องสิทธิส่วนบุคคลจะไม่เกิดปัญหาเหล่านี้ ก็ไม่ถูกเสียทีเดียว จากข่าวที่เกิดขึ้นในระยะหลัง ปัญหาเหล่านี้ล้วนเกิดในสังคมประเทศที่มีความก้าวหน้าทางสิทธิพลเมืองเสียส่วนใหญ่เสียด้วยซ้ำ
มุมมองการแก้ไขปัญหา
ปัญหาที่เกิดขึ้น ส่วนใหญ่เกิดจากความขาดการใส่ใจเรื่องของความเป็นส่วนตัว ไม่ว่าจะเป็นทางฝั่งผู้สร้าง ai หรือจากฝั่งผู้ใช้เองก็ตาม ซึ่งการแก้ไขก็ต้องแก้ไขที่สาเหตุเหล่านี้ ไม่ว่าจะทางตรงหรือทางอ้อม
ตัวอย่างเช่น
- การมีเงื่อนไขต่อผู้สร้าง ai หรือ การให้บริการขององค์กร ที่รัดกุมมากขึ้น
- ผู้สร้าง ai ควรมีการเปิดเผยต่อผู้ใช้งาน ว่าข้อมูลส่วนใดจะถูกเก็บไปวิเคราะห์บ้าง การขอความยินยอมให้ผู้ใช้สามารถเข้าถึง รวมถึงการลบข้อมูลส่วนของตนเองในภายหลังได้
- เพิ่มความเป็นธรรมแก่ผู้ที่ถูกนำลักษณะจำเพาะ ผลงาน ลักษณะทางกายภาพใดๆ ไปใช้งานโดยไม่ได้รับความยินยอม
ซึ่งทั้งหมดที่ผมยกตัวอย่างมานั้น อาจจะไม่ได้ครอบคลุมในทุกประเด็น แต่ก็น่าจะเพียงพอในการชี้ให้เห็นว่า การสร้างสรรค์ปัญญาประดิษฐ์ขึ้นมาเป็นเรื่องที่ดีและน่าสนับสนุน แต่การนำไปใช้ในวงกว้างนั้น ควรมีการสร้างข้อตกลง และกฎที่ชัดเจน เพื่อป้องปัญหาที่เกิดขึ้นจากการใช้งาน เพราะถึงแม้ ai จะวิเคราะห์ทุกอย่างโดยอ้างอิงจากหลักเหตุผล แต่เราไม่สามารถรับรู้ได้เลยว่า ai จะตกไปอยู่ในมือของผู้ใช้ที่มีพื้นฐานความคิด ความรับผิดชอบต่อสังคมส่วนรวมแบบใด