Андрій Яворський, віцепрезидент по стратегії й технологій в GlobalLogic
Технології на базі машинного навчання поступово стають новим інструментом для вирішення повсякденних і рутинних завдань. Наприклад, ChatGPT може замінити вже звичну пошукову систему, допомогти з написанням чи редагуванням програмного коду або аналітикою даних. Переваги цього інструменту є беззаперечними. Однак поширення штучного інтелекту викликає стурбованість щодо безпеки приватних даних користувачів або закритих розробок компаній, а також деяких етичних дилем. При використанні цього інструмента важливо розуміти потенційні ризики, з якими пов’язане впровадження даної технології, особливо в корпоративному сегменті.
Одним із наріжних каменів є право інтелектуальної власності для контенту, створеного ШІ. Він є результатом роботи алгоритмів машинного навчання, які в якості бази знань використовували вхідні дані. Постає питання: хто володіє правами на інтелектуальну власність, особливо, коли контент походить від існуючого контенту? Разом із розвитком штучного інтелекту знадобляться нові правила та закони для встановлення права власності та його захисту в цій галузі. Це забезпечить справедливу винагороду авторам за їхню роботу, а також заохочуватиме інновації у розробках технології машинного навчання.
Питання авторського права та етики використання ШІ особливо гостро стоїть перед IT-інженерами. Штучний інтелект може створювати програмний код і в майбутньому цей інструмент дозволить значно скоротити період розробки. Проте замовники часто наполягають на унікальності написаного коду та використаних інструментів. Великі корпорації використовують програмне забезпечення, яке перевіряє код на плагіат, порівнюючи готовий результат з елементами, доступними у відкритому доступі, щоб уникнути потенційних проблем інтелектуальної власності кінцевого продукту. Поки що це залишається питанням етики та внутрішніх корпоративних правил. Якщо розробник використовує сторонні інструменти, не передбачені компанією, він повинен усвідомлювати їхню потенційну загрозу та нести відповідальність за прийняті рішення. Важливо розуміти, що ШІ не створює нової проблеми, а викликає додаткові ризики.
Інша проблема, викликана розповсюдженням штучного інтелекту — загроза розповсюдження конфіденційної інформації при отриманні й обробці даних. Нещодавній інцидент Samsung, пов’язаний із ймовірним витоком корпоративної інформації компанії про продукт та розробки, підкреслює важливість заходів безпеки та забезпечення конфіденційності даних у організаціях. Наприклад, у GlobalLogic ми дотримуємося правил роботи з конфіденційною інформацією. Відповідно до безпекових вимог, у роботі наші інженери використовують лише ПЗ та інструменти, авторизовані компанією або надані замовником. ChatGPT або інші загальнодоступні інструменти ШІ не авторизовані для обробки або вирішення завдань компанії та замовника.
Крім того, деякі компанії вже пропонують послуги аудиту та моніторингу систем ШІ для покращення стандартів внутрішньої безпеки клієнтів. Наприклад, оцінку ризиків AI-систем на предмет упередженості та етичності вже надають такі організації, як PwC, KPMG, Deloitte, IBM та OpenAI.
Значне поширення в сучасному світі соцмереж і персоніфікованого контенту посилює інформаційну ізоляцію людей. Платформи формують своєрідну інформаційну бульбашку, в межах якої користувачі отримують тільки ті дані, що підтверджують їхні погляди та вподобання. Проникнення штучного інтелекту у повсякденне життя може посилити цю проблему. Людина зможе отримати ще більш персоналізовану картину світу, в яку вона вірить. У соціальних мережах вже є групи людей, які підтримують теорії пласкої Землі, антивакцинацію, чіпування, тощо. По суті, ШІ може підтвердити ці гіпотези та ще більше звузити погляд на дані питання так, що це буде комфортним для споживача такого контенту. І замість того, щоб зробити світ більш різноманітним, ми можемо отримати дуже індивідуалізований віртуальний простір для кожної людини.
Проте разом із загрозами поширення ШІ приносить значну користь. Наприклад, прогностична аналітика допомагає компаніям приймати більш обґрунтовані рішення, тоді як чатботи та віртуальні помічники поліпшують обслуговування та підтримку клієнтів. Штучний інтелект не призначений для заміни людей, а навпаки, для розширення їх можливостей та підвищення ефективності.
Наприклад, у медицині діагностика на базі ШІ може допомогти лікарям точніше визначати захворювання, що дозволить краще лікувати пацієнтів. Більш того, дослідження в Nature показало, що система ШІ діагностувала рак шкіри точніше, ніж лікарі-дерматологи.
Впровадження і поширення ШІ потребує змін, як серед бізнесу, так і державних інституцій. Крім того, організації повинні посилити протоколи кібербезпеки, щоб запобігти витоку конфіденційної інформації. Для безпечного й продуктивного використання технології необхідно розробити нові закони, що будуть регулювати її роботу. Також потрібно створити передові системи моніторингу, які попередять ризики, пов’язані з взаємодією людей із штучним інтелектом у корпоративному сегменті. Координація між суспільством, IT-гігантами й державою допоможе зменшити потенційні загрози та максимально використовувати переваги ШІ, призначені для розширення можливостей людей та підвищення нашої ефективності.