Microsoft MVP เตือน BS รอบ Copilot จาก "ผู้เชี่ยวชาญ"

click fraud protection

สิ่งที่คุณต้องรู้

  • ในการประชุม Microsoft Ignite 2023 ครั้งล่าสุด Microsoft มุ่งเน้นอย่างกว้างขวางในการบูรณาการ Copilot เข้ากับโมเดลธุรกิจทุกด้าน
  • ลูกค้าองค์กรบางรายใช้งาน Copilot มาเกือบหนึ่งเดือนแล้ว
  • Loryan Strant ระบุว่าเนื่องจากบริษัทต้องการใบอนุญาตอย่างน้อย 300 ใบซึ่งมีราคาประมาณ 109,000 ดอลลาร์สำหรับ Copilot จึงมีแนวโน้มว่าจะมีบริษัทไม่มากนักที่ใช้มัน
  • โปรดระวังที่ปรึกษาด้านไอทีหรือบริษัทเทคโนโลยีที่สัญญาว่าจะมีความเชี่ยวชาญของ Copilot โดยไม่ต้องตรวจสอบประสบการณ์จริงกับผลิตภัณฑ์

ด้วยการผลักดันล่าสุดจาก Microsoft เพื่อบูรณาการ นำร่องไปสู่ทุกสิ่งอย่างแท้จริง โดยเฉพาะใน Microsoft 365จะมีการเร่งรัดในการบูรณาการ AI และบริษัทเทคโนโลยีที่นำเสนอ "ความเชี่ยวชาญ" ให้กับองค์กรขนาดใหญ่เพื่อช่วยเหลือในการเริ่มต้นใช้งาน Copilot บนเขา บล็อกLoryan Strant อธิบายความสำคัญของการพยายามรักษาสัตว์แพทย์และระบุตัวบุคคลหรือบริษัทที่อาจเป็นเช่นนั้น เสนอบริการให้คำปรึกษาเกี่ยวกับ Copilot แต่มีประสบการณ์จริงในองค์กรที่จำกัดมาก สิ่งแวดล้อม.

ความต้องการ AI ที่เพิ่มขึ้นอาจนำไปสู่การขายและการโฆษณาที่หลอกลวง เนื่องจากผู้คนกระโจนเข้าสู่ยุคตื่นทองของ AI

Strant ให้ประเด็นที่ดีตลอดทั้งบทความของเขา ในฐานะ Microsoft MVP มีแนวโน้มว่า Loryan จะต้องจัดการกับ BS ทางปัญญาจากผู้ที่แสร้งทำเป็นผู้เชี่ยวชาญมากกว่าแฟน Microsoft ปกติหรือผู้ใช้ปลายทาง AI ถือเป็นอุตสาหกรรมที่กำลังเฟื่องฟูในขณะนี้ ความต้องการ AI ที่เพิ่มขึ้นทำให้ NVIDIA ได้รับการส่งเสริมอย่างมาก ตอนนี้ทำให้พวกเขาเป็นผู้ผลิตชิปที่ทำกำไรได้มากที่สุดในโลก

หากเราไม่ขายความสำคัญของ Copilot ให้กับ Microsoft ก็ไม่มีอะไรจะพิสูจน์ได้ว่ามีความบูรณาการเพียงใด Copilot คืออนาคตของ Microsoft มากกว่าการหลบหนีล่าสุดของ Satya Nadella ในขณะที่เขาในความคิดของฉันโดดเดี่ยวเดียวดาย ปลอดภัย Sam Altman กลับมาดำรงตำแหน่ง CEO ของ OpenAI

ทั้งหมดนี้นำไปสู่สภาพแวดล้อมที่การฉ้อโกง การหลอกลวง และความไม่ซื่อสัตย์เพียงเล็กน้อยจะแผ่ขยายไปทั่ว สตาร์ทอัพที่เน้น AI และพนักงานขายเทคโนโลยีอาจแสร้งทำเป็นผู้เชี่ยวชาญ แต่จริงๆ แล้วกำลัง "หลุดมือ" โดยไม่ต้องลงมือปฏิบัติจริง ประสบการณ์.

มีคำพูดในวงการไอที (และฉันก็มั่นใจว่าอุตสาหกรรมอื่นๆ อีกมากมายเช่นกัน) ว่าในฐานะที่ปรึกษา คุณจะต้องนำหน้าลูกค้าเพียง 1 หน้าเท่านั้น ฉันเกลียดคำพูดนั้นมาโดยตลอดเพราะมันเป็นการหลอกลวงแบบแบนๆ ในการใช้จุดยืนนี้ “ผู้เชี่ยวชาญ” รู้สึกสบายใจที่จะหลอกลวงลูกค้าได้อย่างมีประสิทธิภาพ ระดับความรู้ - และในบางกรณีอาจนำไปสู่ผลลัพธ์ที่เลวร้าย เช่น ความเป็นส่วนตัวของข้อมูล การละเมิด และในสถานการณ์ที่องค์กรต่างๆ ให้ "AI" เข้าถึงเนื้อหาและข้อมูลของตน ถือเป็นการกระทำที่อันตรายอย่างยิ่ง

ลอยัน สแตรนท์

โดยส่วนตัวแล้วฉันไม่คุ้นเคยกับแนวคิดที่ว่าจะต้องนำหน้าลูกค้าไปหนึ่งหน้าเพื่อเป็นที่ปรึกษา แต่ฉันได้ทำงานร่วมกับผู้เชี่ยวชาญที่คิดว่าเพียงพอแล้ว และผู้จัดการบัญชีด้านเทคนิค (TAM) ที่ควรจะเป็นผู้เชี่ยวชาญในผลิตภัณฑ์ที่กำหนดเพื่อให้รู้ว่าบ่อยครั้งที่คนเหล่านี้นั่งเฉยๆ กางเกง.

Strant อธิบายต่อไปว่า Microsoft 365 สำหรับองค์กรที่มีราคาแพงนั้นหมายความว่าผู้คนจำนวนมากยังไม่พร้อมใช้ "นอกเหนือจากความจริงที่ว่าผลิตภัณฑ์แทบจะไม่หลุดออกจากชั้นวางแล้ว ก็คือความจริงที่ว่าผลิตภัณฑ์มีราคาแพงมากและมีปริมาณการซื้อขั้นต่ำ เรากำลังพูดถึงใบอนุญาตขั้นต่ำ 300 ใบ ซึ่งมีมูลค่าประมาณ 109,000 เหรียญสหรัฐ" 

ในช่วงเวลาดังกล่าว มีรายงานว่าผลิตภัณฑ์มีการเปลี่ยนแปลงหลายครั้งต่อ Strant และความจำเป็นในการได้รับ ผู้เชี่ยวชาญที่แท้จริงเกี่ยวกับผลิตภัณฑ์อาจมีความสำคัญสำหรับองค์กรที่ต้องการบูรณาการ Copilot ได้อย่างปลอดภัย

"สิ่งที่ฉันจะพูดก็คือ หากคุณกำลังมองหาพันธมิตรหรือที่ปรึกษาที่จะช่วยเหลือคุณเกี่ยวกับ M365 Copilot ในองค์กรของคุณ ให้ท้าทายพวกเขาเพื่อพิสูจน์ความรู้และประสบการณ์ของพวกเขา ท้าทายให้พวกเขาแสดงคุณค่าที่เป็นเอกลักษณ์ซึ่งเหนือกว่าสิ่งที่เปิดเผยต่อสาธารณะด้วยการค้นหาเว็บขั้นพื้นฐาน"

ลอยัน สแตรนท์

โดยส่วนตัวแล้วผมเห็นด้วยกับ Loryan ตรงที่ว่า "ตอนนี้ การนำ “AI” และ M365 Copilot มาเป็นสินค้าโภคภัณฑ์ ถือเป็นกระแสตื่นทองอย่างแท้จริง" การประชุมด้านเทคโนโลยีและความปลอดภัยทางไซเบอร์เกือบทุกรายการมีการพูดคุยกัน AI. Microsoft Security Copilot อาจช่วยให้ผู้ตอบสนองด้านความปลอดภัยมีความแม่นยำมากขึ้นแต่ในขณะเดียวกัน พลังและความเร็วของ generative AI สามารถช่วยให้ผู้โจมตีเขียนมัลแวร์ ช่วยเหลือได้ดีขึ้น การโจมตีทางวิศวกรรมสังคมที่น่าเชื่อถือมากขึ้นด้วยฟิชชิ่ง วิชชิ่ง และตอนนี้การโจมตีแบบสมิชชิ่งมีมากขึ้นเรื่อยๆ แพร่หลาย

หัวหน้าเจ้าหน้าที่รักษาความปลอดภัยข้อมูล (CISO) จำนวนมากลังเลที่จะไว้วางใจใน AI เจนเนอเรชั่นซึ่งมีจุดประสงค์หลักในการเรียนรู้และเผยแพร่ข้อมูล สำหรับอุตสาหกรรมที่ได้รับการควบคุม เช่น การดูแลสุขภาพที่เกี่ยวข้องกับกฎหมาย HIPPA หรือผู้รับเหมาของรัฐบาลที่จัดการกับข้อมูลที่เป็นความลับ แนวคิดในการให้ข้อมูลที่ไม่ได้รับการพิสูจน์ เทคโนโลยีอย่าง Copilot เข้าถึงข้อมูลที่อาจนำไปสู่การเสียค่าปรับจำนวนมากจากการดำเนินการด้านกฎระเบียบของรัฐบาล ในกรณีที่มีการละเมิดข้อมูล ถือเป็นสะพานเชื่อมที่ไกลเกินไปสำหรับคนส่วนใหญ่ CISO

ความรับผิดชอบอยู่ที่ Microsoft, Google, X และบริษัทอื่นๆ ที่ผลักดันโซลูชัน AI เหล่านี้สำหรับองค์กร ลูกค้าเพื่อพิสูจน์ว่า generative AI สามารถปลอดภัยได้ และข้อมูลจะได้รับการคุ้มครอง แม้ในกรณีที่เลวร้ายที่สุด สถานการณ์

คุณเคยมีโอกาสใช้ Copilot สำหรับ Microsoft 365 หรือไม่ คุณคิดว่ามีคนจำนวนมากที่ต้องการหารายได้จาก Copilot และนวัตกรรม AI อื่น ๆ ที่ไม่มีประสบการณ์จริงหรือไม่? แจ้งให้เราทราบในความคิดเห็น.