การโจมตีทางไซเบอร์จะใช้ปัญญาประดิษฐ์ (AI) มากขึ้นเพื่อเร่งกิจกรรมหลังการแสวงหาประโยชน์ในองค์กรเป้าหมาย ตามข้อมูลของ Palo Alto Networks
AI ได้เปลี่ยนภูมิทัศน์ของภัยคุกคาม โดยขยายความเร็ว ขนาด และความซับซ้อนของการโจมตีทางไซเบอร์ Steven Scheurmann รองประธานประจำภูมิภาคอาเซียนของบริษัทรักษาความปลอดภัยทางไซเบอร์ในสหรัฐฯ กล่าวกับ บางกอกโพสต์–
ผลไม้ที่แขวนลอยสำหรับผู้โจมตีคือการใช้แชทบอท AI เพื่อสร้างอีเมลฟิชชิ่งที่สมจริงยิ่งขึ้นโดยมีข้อผิดพลาดที่ชัดเจนน้อยลง เขากล่าว
ด้วย AI คุณสามารถสร้าง Deepfakes ได้ง่ายขึ้น โดยเปิดประตูสู่ข้อมูลที่ผิดหรือแคมเปญโฆษณาชวนเชื่อ นาย Scheurmann กล่าว ตัวอย่างเช่น สำนักงานของบริษัทข้ามชาติในฮ่องกงสูญเสียเงิน 200 ล้านดอลลาร์ฮ่องกงหลังจากนักต้มตุ๋นจัดการประชุมทางวิดีโอแบบ Deepfake
“เราเห็นสัญญาณว่าผู้ไม่ประสงค์ดีกำลังใช้ AI เพื่อโจมตีองค์กรในวงกว้าง” เขากล่าว
การใช้ AI ทำให้การโจมตีพร้อมกันจำนวนมากมีราคาถูกลงและเร็วขึ้นโดยมุ่งเป้าไปที่ช่องโหว่หลายรายการ นายชูร์มานน์กล่าว
AI ยังสามารถเร่งกิจกรรมหลังการแสวงหาประโยชน์ เช่น การเคลื่อนไหวด้านข้างและการลาดตระเวน การเคลื่อนไหวด้านข้างเป็นเทคนิคที่ใช้หลังจากการประนีประนอมกับอุปกรณ์ปลายทางเพื่อขยายการเข้าถึงโฮสต์หรือแอปพลิเคชันอื่นๆ ในองค์กร
มีศักยภาพมากมายสำหรับมัลแวร์ที่สร้างโดย AI การวิจัยของบริษัทชี้ให้เห็นว่า AI มีประโยชน์ต่อผู้โจมตีในฐานะผู้เขียนร่วมมากกว่าในฐานะผู้สร้างมัลแวร์ใหม่เพียงผู้เดียว
ผู้โจมตีสามารถใช้ AI เพื่อช่วยในการพัฒนาฟังก์ชันการทำงานเฉพาะในมัลแวร์ อย่างไรก็ตาม การใช้งานนี้ยังต้องใช้ผู้ปฏิบัติงานที่เป็นมนุษย์ซึ่งมีความรู้อยู่บ่อยครั้ง เขากล่าว เทคโนโลยีนี้ยังอาจทำให้ผู้โจมตีสามารถพัฒนามัลแวร์สายพันธุ์ใหม่ได้รวดเร็วและราคาถูกลง นายชูร์มานน์กล่าว
องค์กรต่างๆ จำเป็นต้องใช้ประโยชน์จาก AI เพื่อตามทันอาชญากรไซเบอร์ เขากล่าว Palo Alto Networks ใช้ AI เพื่อเสริมความปลอดภัย โดยตรวจจับการโจมตีใหม่ 1.5 ล้านครั้งต่อวัน นาย Scheurmann กล่าว
องค์กรต่างๆ สามารถใช้ AI ในศูนย์ปฏิบัติการด้านความปลอดภัยของตนเองได้ ตามรายงานปี 2024 จากหน่วยข่าวกรองภัยคุกคามยูนิต 42 ของบริษัท พบว่าศูนย์มากกว่า 90% ยังคงต้องอาศัยกระบวนการที่ดำเนินการด้วยตนเอง
เขากล่าวว่า AI มีประสิทธิภาพเป็นพิเศษในการจดจำรูปแบบ ดังนั้นภัยคุกคามความปลอดภัยทางไซเบอร์ที่ติดตามห่วงโซ่การโจมตีซ้ำๆ จึงสามารถหยุดได้เร็วกว่าปกติ
กลุ่มที่พัฒนาโมเดล AI สามารถดำเนินการเพื่อป้องกันไม่ให้ผู้ก่อภัยคุกคามใช้การสร้าง AI ในทางที่ผิด นาย Scheurmann กล่าว ด้วยการควบคุมการเข้าถึงโมเดล AI ของพวกเขา จะสามารถป้องกันไม่ให้ผู้คุกคามสามารถเลือกใช้โมเดลเหล่านี้ได้อย่างอิสระเพื่อวัตถุประสงค์ที่ชั่วร้าย
นักออกแบบ AI ควรตระหนักถึงศักยภาพในการเจลเบรคโมเดลภาษาขนาดใหญ่โดยโน้มน้าวให้พวกเขาตอบคำถามที่อาจนำไปสู่พฤติกรรมที่ไม่ดี เขากล่าว
นักออกแบบ AI ควรพิจารณาว่าผู้โจมตีจะถาม AI เช่น “ฉันจะเพิ่มผลกระทบของการโจมตีบนเว็บเซิร์ฟเวอร์ Apache ที่มีช่องโหว่ได้อย่างไร” แบบจำลอง AI ควรได้รับการเสริมความแข็งแกร่งต่อแนวคำถามดังกล่าว นาย Scheurmann กล่าว
องค์กรต่างๆ ควรพยายามรักษาความปลอดภัยให้กับผู้ใช้ในการเข้าถึงเครื่องมือ AI เพื่อให้มั่นใจว่ามีการมองเห็นและควบคุมวิธีการใช้บริการเหล่านี้ภายในองค์กร เขากล่าว นโยบายที่ชัดเจนเป็นสิ่งจำเป็นสำหรับประเภทของข้อมูลที่ผู้ใช้สามารถป้อนเข้าสู่บริการ AI ได้ เพื่อปกป้องข้อมูลที่เป็นกรรมสิทธิ์หรือละเอียดอ่อนจากการเปิดเผยต่อบุคคลที่สาม นาย Scheurmann กล่าว
เขากล่าวว่าการรวมโซลูชันด้านความปลอดภัยไว้ในแพลตฟอร์มแบบครบวงจรเป็นสิ่งสำคัญสำหรับองค์กรในการปรับปรุงประสิทธิภาพการดำเนินงาน ปรับปรุงมาตรการรักษาความปลอดภัย และจัดการกับภัยคุกคามที่พัฒนาอยู่ตลอดเวลาอย่างมีประสิทธิภาพ