ผู้ปฏิบัติงานอัลกอริทึมมองไม่เห็นกำลังดึงสตริงการจัดการมากขึ้นเรื่อยๆ

ผู้ปฏิบัติงานอัลกอริทึมมองไม่เห็นกำลังดึงสตริงการจัดการมากขึ้นเรื่อยๆ

“ฉันขอโทษเดฟ ฉันเกรงว่าจะทำอย่างนั้นไม่ได้” HAL เย็นชา (ถ้าสุภาพ) ปฏิเสธที่จะเปิดประตูช่องใส่ยานในปี 2544 A Space Odysseyได้กลายเป็นคำเตือนที่ชัดเจนเกี่ยวกับการไว้วางใจปัญญาประดิษฐ์มากเกินไป โดยเฉพาะอย่างยิ่งหากคุณทำงานในอวกาศ ในภาพยนตร์ เมื่อเครื่องจักรตัดสินใจที่จะเป็นเจ้านาย หรือมนุษย์ปล่อยให้มันเป็นไป สิ่งต่างๆ ผิดพลาด แม้จะมีคำเตือนเกี่ยวกับ dystopian มากมาย แต่การควบคุมโดยเครื่องจักรกำลังกลายเป็นความจริงของเราอย่างรวดเร็ว

พวกเขากำลังช่วยออกแบบอาคาร พวกเขากำลังเร่งการซื้อขาย

ในตลาดการเงิน สร้างและสูญเสียโชคชะตาในเสี้ยววินาที พวกเขากำลังคำนวณเส้นทางที่มีประสิทธิภาพสูงสุดสำหรับคนขับรถส่งของ

ในที่ทำงาน บริษัทต่าง ๆ ได้นำระบบคอมพิวเตอร์อัลกอริธึมการเรียนรู้ด้วยตนเองมาใช้เพื่อช่วยในด้านต่าง ๆ เช่น การจ้างงาน การตั้งค่างาน การวัดผลผลิต การประเมินประสิทธิภาพ และแม้แต่การเลิกจ้าง: “ฉันขอโทษ เดฟ ฉันเกรงว่าคุณกำลังถูกทำให้ซ้ำซ้อน”

การให้อัลกอริทึมการเรียนรู้ด้วยตนเองมีความรับผิดชอบในการตัดสินใจและดำเนินการที่มีผลกระทบต่อพนักงานเรียกว่า ” การจัดการอัลกอริทึม ” มันมีความเสี่ยงมากมายในการทำให้ระบบการจัดการเสียบุคลิกและครอบงำอคติที่มีอยู่ก่อน

ในระดับที่ลึกลงไปอีก บางทีการจัดการแบบอัลกอริทึมอาจสร้างความไม่สมดุลของอำนาจระหว่างฝ่ายบริหารและผู้ปฏิบัติงาน อัลกอริทึมเป็นความลับที่ได้รับการปกป้องอย่างใกล้ชิด กระบวนการตัดสินใจของพวกเขาถูกซ่อนอยู่ มันเป็นกล่องดำ: บางทีคุณอาจมีความเข้าใจเกี่ยวกับข้อมูลที่ป้อนเข้ามา และคุณเห็นผลลัพธ์ที่ออกมา แต่คุณไม่รู้ว่าเกิดอะไรขึ้นระหว่างนั้น ที่ศูนย์จัดการสินค้าของ Amazon ทางตะวันออกเฉียงใต้ ของเมลเบิร์น พวกเขากำหนดจังหวะสำหรับ “คนเลือก” ซึ่งมีตัวจับเวลาในเครื่องสแกนแสดงระยะเวลาที่พวกเขาต้องหาสินค้าชิ้นต่อไป ทันทีที่สแกนรายการนั้น ตัวจับเวลาจะรีเซ็ตสำหรับรายการถัดไป ทั้งหมดด้วยความเร็ว “เดินไม่มาก วิ่งไม่มาก”

หรือ AI จะกำหนดความสำเร็จของคุณในการสัมภาษณ์งานได้อย่างไร บริษัทมากกว่า 700 แห่งได้ทดลองใช้เทคโนโลยีดังกล่าว HireVue นักพัฒนาซอฟต์แวร์ในสหรัฐฯ กล่าวว่าซอฟต์แวร์ของบริษัทช่วยเพิ่มความเร็วในกระบวนการจ้างงานได้ถึง 90% โดยให้ผู้สมัครตอบคำถามที่เหมือนกัน จากนั้นจึงให้คะแนนตามภาษา น้ำเสียง และสีหน้า

จริงอยู่ การประเมินโดยมนุษย์ระหว่างการสัมภาษณ์งานนั้นมีข้อบกพร่อง

ที่ฉาวโฉ่ อย่างไรก็ตาม อัลกอริทึมยังสามารถมีอคติได้ ตัวอย่างคลาสสิกคือซอฟต์แวร์ COMPAS ที่ใช้โดยผู้พิพากษา เจ้าหน้าที่คุมประพฤติ และเจ้าหน้าที่ทัณฑ์บนของสหรัฐฯ เพื่อประเมินความเสี่ยงของบุคคลที่จะกระทำผิดซ้ำ ในปี 2559 การสืบสวนของ ProPublicaแสดงให้เห็นว่าอัลกอริทึมมีการเลือกปฏิบัติอย่างมาก จัดประเภทวัตถุสีดำอย่างไม่ถูกต้องว่ามีความเสี่ยงสูงกว่า 45% เมื่อเทียบกับ 23% สำหรับวัตถุสีขาว

ในปีที่ผ่านมา พนักงานส่งของ และคนขับจักรยาน ของ Uber Eats ได้ตำหนิการเปลี่ยนแปลงอัลกอริทึมโดยไม่ได้อธิบายถึงการลดงานและรายได้ของพวกเขา

ผู้ขับขี่ไม่สามารถแน่ใจได้ 100% ว่าเป็นอัลกอริทึมทั้งหมด แต่นั่นเป็นส่วนหนึ่งของปัญหา ความจริงที่ว่าผู้ที่พึ่งพาอัลกอริทึมไม่รู้วิธีใดวิธีหนึ่งมีอิทธิพลอย่างมากต่อพวกเขา

ประเด็นสำคัญ: ประสบการณ์ของคนขับ Uber เน้นย้ำถึงโอกาสทางตันในการทำงานที่คนงานชาวออสเตรเลียจำนวนมากต้องเผชิญ

นี่เป็นผลลัพธ์ที่สำคัญจาก การสัมภาษณ์ผู้ ให้บริการจัดส่งอาหาร 58 ราย ส่วนใหญ่รู้ว่างานของพวกเขาถูกจัดสรรโดยอัลกอริทึม (ผ่านแอพ) พวกเขารู้ว่าแอปรวบรวมข้อมูล สิ่งที่พวกเขาไม่รู้ก็คือการใช้ข้อมูลเพื่อให้รางวัลทำงานอย่างไร

ในการตอบสนอง พวกเขาพัฒนากลยุทธ์ต่างๆ (หรือเดาวิธี) เพื่อ “ชนะ” งานมากขึ้น เช่น รับงานแสดงให้เร็วที่สุดและรอในสถานที่ “มหัศจรรย์” แดกดัน ความพยายามเหล่านี้เพื่อทำให้อัลกอริทึมพอใจมักหมายถึงการสูญเสียความยืดหยุ่นซึ่งเป็นหนึ่งในสิ่งที่ดึงดูดใจของงานกิ๊ก

ความไม่สมมาตรของข้อมูลที่สร้างขึ้นโดยการจัดการแบบอัลกอริทึมมีผลกระทบที่ลึกซึ้งสองประการ ประการแรก มันคุกคามอคติของระบบ ซึ่งเป็นประเภทของการเลือกปฏิบัติที่ซ่อนอยู่ในอัลกอริทึมของ COMPAS เป็นเวลาหลายปี ประการที่สอง เป็นการรวมความไม่สมดุลของอำนาจระหว่างผู้บริหารและผู้ปฏิบัติงาน

ข้อมูลของเรายังยืนยันการค้นพบของผู้อื่นว่าแทบจะเป็นไปไม่ได้เลยที่จะบ่นเกี่ยวกับการตัดสินใจของอัลกอริทึม คนงานมักไม่ทราบพื้นฐานที่ชัดเจนของการตัดสินใจเหล่านั้น และไม่มีใครบ่นด้วยอยู่ดี เมื่อผู้ให้บริการจัดส่งจักรยาน Uber Eats ถามถึงเหตุผลเกี่ยวกับรายได้ที่ลดลง เช่น บริษัทตอบกลับมาว่า “เราไม่สามารถ ควบคุม จำนวนการจัดส่งที่คุณได้รับด้วยตนเอง ได้”

มาตรฐานการปฏิบัติที่ยุติธรรมเพื่อให้มั่นใจถึงความโปร่งใสและความรับผิดชอบเป็นจุดเริ่มต้น ตัวอย่างหนึ่งคือโครงการFair Workที่นำโดยOxford Internet Institute ความคิดริเริ่มนี้เป็นการนำนักวิจัยที่มีแพลตฟอร์ม คนงาน สหภาพแรงงาน และหน่วยงานกำกับดูแลมารวมกันเพื่อพัฒนาหลักการระดับโลกสำหรับการทำงานในระบบเศรษฐกิจแบบแพลตฟอร์ม ซึ่งรวมถึง “การจัดการที่ยุติธรรม” ซึ่งเน้นที่ความโปร่งใสของผลลัพธ์และผลลัพธ์ของอัลกอริทึมสำหรับพนักงาน

ความเข้าใจเกี่ยวกับผลกระทบของอัลกอริทึมต่องานทุกรูปแบบนั้นยังอยู่ในช่วงเริ่มต้น มันต้องการการตรวจสอบข้อเท็จจริงและการวิจัยที่มากขึ้น หากปราศจากการกำกับดูแลของมนุษย์ตามหลักการที่ตกลงไว้ เราเสี่ยงที่จะเชิญ HAL เข้ามาในสถานที่ทำงานของเรา

แนะนำ 666slotclub / hob66