The world's leading cybersecurity press release distribution platform.
This is a PR written by or for the company mentioned within it. The writer has a vested interest in the company and products mentioned within.
КЕРІ, Північна Кароліна, 13 березня 2025 р./CyberNewsWire/– Оскільки кіберзагрози на основі штучного інтелекту (ШІ) зростають,
Компанія попереджає, що штучний інтелект змінює як ландшафт загроз, так і навички, необхідні для фахівців з кібербезпеки. Хоча штучний інтелект пропонує значні переваги в кіберзахисті, організації повинні забезпечити належну підготовку своїх команд, щоб ефективно використовувати його, не покладаючись надмірно на автоматизацію.
«Розвиток штучного інтелекту в кібербезпеці — це не просто виклик, це можливість, — сказала Дара Варн, генеральний директор INE Security. «За
належним чином навчати фахівців з кібербезпеки , ШІ можна використовувати для фільтрації шуму, зменшення вигоряння та підвищення ефективності. Однак, якщо ми не навчимо людей розуміти «чому» за рішеннями, керованими штучним інтелектом, ми ризикуємо майбутнім, коли професіонали з кібербезпеки сліпо слідуватимуть за штучним інтелектом, не маючи досвіду, щоб критично мислити за його межами».
Інструменти безпеки, керовані штучним інтелектом, покращують співвідношення сигнал/шум, роблячи центри безпеки (SOC) ефективнішими за рахунок зменшення кількості помилкових спрацьовувань. Інструменти кібербезпеки удосконалюють цю сферу вже більше десяти років.
ШІ може визначати пріоритетність критичних загроз, дозволяючи аналітикам зосередитися на реальних небезпеках, а не витрачати час на розслідування помилкових тривог.
«Штучний інтелект робить виявлення загроз розумнішим, але він не надійний», — сказала Трейсі Воллес, директор із контенту INE Security.
«Фахівці з безпеки мають бути навчені працювати разом із штучним інтелектом, а не просто стежити за його результатами. Штучний інтелект чудово допомагає зменшити втому від попередження, але аналітикам все одно потрібен досвід, щоб досліджувати, інтерпретувати та точно реагувати на загрози».
Одним із найбільш багатообіцяючих, але складних аспектів розвитку штучного інтелекту є його вплив на робочу силу з кібербезпеки. З одного боку, генеративний штучний інтелект знизить бар’єр входу, дозволяючи більшій кількості професіоналів увійти в сферу кібербезпеки та зменшуючи світовий дефіцит робочої сили.
Однак цей зсув також несе ризики. «Занепокоєння полягає не в тому, що ШІ полегшує кібербезпеку», — сказав Уоллес.
«Занепокоєння полягає в тому, що якщо професіонали стануть надто залежними від результатів штучного інтелекту, вони не розвинуть навички критичного мислення, необхідні для роботи понад те, що дає їм штучний інтелект. Організації повинні переконатися, що підготовка з кібербезпеки вчить професіоналів не лише використовувати штучний інтелект, але й працювати незалежно від нього, коли це необхідно».
Інша проблема кібербезпеки, керованої штучним інтелектом, пов’язана з ризиками конфіденційності даних і безпеки з великими мовними моделями (LLM). Хоча занепокоєння щодо витоку даних із хмарними моделями штучного інтелекту зростає, це не нова проблема — це еволюція давніх принципів безпеки. Організації повинні гарантувати, що рішення безпеки на основі штучного інтелекту не вимагають зовнішнього обміну даними.
«Оскільки штучний інтелект все глибше інтегрується в операції з кібербезпеки, архітектури безпеки, які ставляться на перше місце, стають вирішальними», — сказав Уоллес. «Організаціям потрібні моделі штучного інтелекту, які можуть працювати безпечно, не піддаючи конфіденційні дані зовнішнім системам».
Забігаючи вперед, архітектури Agentic AI стають гарячою темою в кібербезпеці. Хоча деякі вважають це модним словом, існує реальний потенціал для керованих штучним інтелектом агентів безпеки, які автономно досліджують загрози, налаштовують захист у режимі реального часу та покращують робочі процеси безпеки з мінімальним втручанням людини.
Однак автоматизація повинна бути ретельно збалансована. «Агентський штучний інтелект може бути майбутнім, але ми не можемо дозволити йому замінити практичний досвід і прийняття рішень людиною», — сказав Варн.
«Професіонали з безпеки повинні бути навчені інтерпретувати дані ШІ, робити висновки та розпізнавати, коли ШІ помиляється».
Щоб усунути прогалину в навичках кібербезпеки та допомогти професіоналам ефективно працювати зі штучним інтелектом, INE Security працює над розширенням своїх навчальних програм на основі штучного інтелекту. Ці програми будуть зосереджені на:
«Наша кінцева мета — не просто навчити спеціалістів із безпеки використовувати штучний інтелект, а й навчити їх критично мислити у світі, керованому штучним інтелектом», — сказав Уоллес.
Оскільки штучний інтелект трансформує загрози кібербезпеці з безпрецедентною швидкістю, INE Security закликає компанії:
«Революція штучного інтелекту в кібербезпеці вже тут», — підсумував Варн. «Організації, які діють зараз, інвестуючи в навчання з питань безпеки, розвиваючи таланти з кібербезпеки та розуміючи, як штучний інтелект справді впливає на цю сферу, будуть вести галузь вперед. Майбутнє кібербезпеки належить тим, хто для цього навчається».
Завдяки потужній практичній лабораторній платформі, передовим технологіям, глобальній мережі розповсюдження відео та інструкторам світового класу INE Security є найкращим вибором для компаній зі списку Fortune 500 у всьому світі для навчання кібербезпеці в бізнесі та для ІТ-фахівців, які прагнуть просунути свою кар’єру, пропонуючи навчання Red Team і Blue Team.
Набір напрямків навчання INE Security пропонує незрівнянну глибину знань у сфері кібербезпеки та спрямований на надання поглибленої технічної підготовки, а також зниження бар’єрів у всьому світі для тих, хто хоче розпочати кар’єру в ІТ та досягти успіху.
Кетрін Браун
Безпека INE
kbrown@ine.com
Ця історія була розповсюджена як реліз Cybernewswire у рамках програми HackerNoon Business Blogging. Дізнайтеся більше про програму