Не можна сказати, що є цілі галузі, в яких використовувати штучний інтелект неетично. Є фундаментальні чинники етичних ризиків застосування штучного інтелекту, які засновані на загрозах основним правам людини. Тож є галузі, де, залежно від застосування, ШІ може спричиняти істотніші ризики і потребуватиме обмежень глибини застосування та додаткового контролю.
Можна виділити кілька рівнів глибини застосування ШІ. На поверхні не надто важливі рішення, як-от запис до лікаря. Це ті рішення, які ми вже зараз готові делегувати штучному інтелекту.
Складніші рішення можуть ухвалюватися з попереднім контролем людини. Наприклад, заява на отримання громадянства: штучний інтелект може агрегувати та аналізувати анкетні дані заявника і готувати попередній висновок. Але остаточне рішення буде ухвалювати державний службовець.
Наступний рівень — коли штучний інтелект отримує автономію і потребує тільки постконтролю від людини. Тут глибина застосування штучного інтелекту і залежить від галузі. Це може бути той самий міграційний контроль, правосуддя (спочатку адміністративне, наприклад, штрафи за паркування), рішення про прийняття людини на роботу тощо. Тут є високі ризики неетичного застосування штучного інтелекту.
Залежно від розвитку технологій і суспільства та надійності контролю, ми можемо переглядати допустимі рівні глибини застосування ШІ для різних завдань і галузей.
Окремі застосування ШІ, як-от дистанційна біометрична ідентифікація — технології ідентифікації за обличчям, ходою, поставою людини тощо, будуть високоризиковими, бо можуть порушувати права людини або загрожувати її безпеці та здоров’ю.
Залежно від розвитку технологій і суспільства та надійності контролю, ми можемо переглядати допустимі рівні глибини застосування ШІ для різних завдань і галузей.
Окремі застосування ШІ, як-от дистанційна біометрична ідентифікація — технології ідентифікації за обличчям, ходою, поставою людини тощо, будуть високоризиковими, бо можуть порушувати права людини або загрожувати її безпеці та здоров’ю.
Основні ризики, які постають з появою таких інструментів, як ChatGPT, можна поділити на групи.
Перша група — це ризики для особистих даних і приватності. Мовні моделі, по-перше, можуть робити дуже багато узагальнень, поєднань інформації і висновків з отриманих даних, які можуть бути недоступними для людини, що аналізує інформацію. Наприклад, з наборів даних про поведінку людини у соцмережах та інтернеті загалом, тих же запитів до чатботів великих мовних моделей, можна робити глибокі висновки щодо її психічного стану, звичок, розкладу дня тощо. Поєднання великих масивів даних та їх аналіз ШІ створюють додаткові загрози приватності, які не очевидні для користувачів, бо окремо ці дані не створюють загроз.
І якщо раніше це було питанням середнього горизонту майбутнього, то якість досьє, які вже зараз можна отримати за допомогою доступних чатботів про доволі непублічних людей, є турбуюче глибокою у порівнянні з результатами традиційного пошуку.
Наступна група — це ризики сегрегації. Мовні моделі, за рахунок того, як саме і на основі яких даних навчаються, можуть надавати перевагу окремим соціальним групам. Вони будуть краще працювати з цими групами, а іншим приділяти менше уваги і маргіналізувати їх, вилучати певні меншини (етнічні або інші) та відтворювати людські упередження щодо цих меншин.
Третя група ризиків — це неточність і неправдивість інформації. Це, наприклад, некоректна медична чи правова допомога. Мовні моделі не дуже добре відрізняють факти від вигадок, але при цьому створюють враження, що вони є достовірними співрозмовниками. Це може створювати багато загроз.
Звідси випливають і безпекові ризики: мовні моделі дуже зручно використовувати для масової дезінформації, причому персоналізованої дезінформації «з людським обличчям», заточеної під конкретні групи людей, наприклад, шляхом коментування у соцмережах та у медіа.
Це також може бути персоналізоване шахрайство, коли людина отримує повідомлення з урахуванням методів соціальної інженерії, які спрямовані саме на неї, які використовують індивідуальні слабкості та упередження — таке шахрайство буде краще працювати. Звісно, є також ризики, які стосуються порушення прав інтелектуальної власності та плагіату.
Також можна використовувати мовні моделі для допомоги у розробленні тих же комп’ютерних вірусів або зброї, коли штучним інтелектом буде заміщуватися певна експертиза, відсутня у людей, що діють зі злими намірами.
Ще одна група ризиків — загроза правам людини через використання штучного інтелекту державними органами. Це насамперед здатність опрацьовувати величезні масиви даних, роблячи узагальнення і висновки щодо окремих людей. Це можливості розпізнавання, а отже, відстежування людей як фізично, так і деанонімізація їхньої онлайн-поведінки.
Це дає державним органам потужні інструменти втручання у приватність. І, як я уже згадував вище, огульне застосування ШІ може призвести до ухвалення неправомірних чи хибних рішень стосовно громадян — застосування санкцій, відмови у доступі до послуг, кредиту, працевлаштування тощо. І, що найгірше, мотивацію таких рішень неможливо буде пояснити, а отже, й оскаржити. Тож запровадження інструментів ШІ у високоризикових застосунках і галузях має бути обережним і поступовим.
І наостанок нагадаю відому провокативну думку Ніка Бострома, шведського філософа, дослідника, професора Оксфорду, засновника Інституту майбутнього людства та Інституту етики і нових технологій: ШІ може не знищити людство за допомогою якоїсь зброї, а просто захопити контроль над ним через маніпулювання, бездоганно знаючи, як працює мозок людини і маючи весь арсенал методів, які можна використовувати для того, щоб формувати суспільну думку в потрібному напрямі. Він, звісно, говорив про широкий штучний інтелект, що здатен сам себе усвідомлювати, але не можна списувати з рахунку й ризиків, що наступні покоління великих мовних моделей спробують використати з аналогічною метою у тоталітарних суспільствах, принаймні в окремих.
Автор Юрій Гайдай, старший економіст CES “Тренди ШІ: які етичні загрози несе використання штучного інтелекту” https://surl.li/jzytlz