Хто прийматиме рішення у майбутньому – ми чи штучний інтелект? 9 думок експертів

З травня 2018 року в ЄС почне діяти нове законодавство у сфері захисту даних та приватності – General Data Protection Regulation (GPDR), яке висуває революційні вимоги до систем «штучного інтелекту» та технологій «машинного навчання» (machine learning). Наприклад, бізнес, що використовує штучний інтелект, повинен забезпечити пояснення логіки машини, а, користувач, чиї дані опрацьовує програма, має право знати, чому і як машина прийшла до певних результатів. Ці законодавчі зміни не мали б загальмувати розвитку штучного інтелекту та нейронних мереж, хоча висунуть розробникам та користувачам доволі складні для виконання вимоги. Так вважають експерти, які взяли участь в дискусії «Людина vs. Машина: хто прийматиме рішення в майбутньому?», організованій у межах проекту «Етика і Технології» Львівської бізнес-школи УКУ (LvBS). Найважливіші думки спікерів читайте далі:

eth

Віктор Сарапін, СЕО V.I. Tech, фахівець із даних: «Тема зустрічі «Людина vs. Машина: хто прийматиме рішення в майбутньому?» А чи це взагалі важливо? Ви дивитеся Google Maps – у якій кількості випадків ви покладаєтесь на ці дані і за ними приймаєте рішення про прокладання маршруту? Скільки людей у США обирає фільми за рекомендацією Netflix? То все-таки ми приймаємо рішення чи їх за нас уже приймають?

eth

Я не уявляю, що буде відбуватися через 3-5 років, адже вже зараз щомісяця з’являються такі задачі, які кілька років тому я б навіть не міг вважати реальними!

Насправді, ми не знаємо, як виглядатиме архітектура рішень у майбутньому і яка частина начебто людських рішень де-факто буде рішенням машини. Ми вже це бачимо – наші щоденні рішення значною мірою базовані на даних, які нам надає машина – прогноз погоди, трафік, інші дані. Тому, коли ми говоримо про те, яким буде штучний інтелект, дужа важливо розуміти, якою буде людина, що для неї буде важливим, її наміри, цілі.

Динамічний розвиток технологій генерує дуже багато непевності, і навряд чи можна створити закон, який передбачить геть усе. В нашому випадку, наприклад, такою непевністю є так званий «мережевий ефект» – інформація, яка циркулює в мережі, постійно змінюється на кожному етапі її опрацювання – і поки що незрозуміло, як цим управляти».

Всеволод Рубцов, засновник Digital life lab, та керівник проекту КАРА – лабораторії штучного інтелекту: «Абсолютно можливо, що при прийнятті рішень нас замінять машини. Адже зараз ми в ситуації, коли незрозуміло, який сценарій буде реальним. Планетарна освіта дає нам можливість споживати колосальну кількість знань. А що буде, якщо машина зрівняється з нами у мисленні? Ми й так у цьому контексті трохи запізнюємось у розвитку, адже машини думають значно швидше за нас, швидше приймають рішення. І ця прірва між нашими можливостями і можливостями машин буде весь час збільшуватися.

eth

При прийнятті рішень помилки у роботі машин можливі, але питання тут – у якості попереднього тестування. Зрештою, оскільки штучний інтелект зможе сам себе тестувати, він ставатиме все експертнішим…

Обмеження (зміни європейського законодавства) трохи затримають, але не зупинять розвиток штучного інтелекту. Прогрес вже запущений і його неможливо зупинити. Однак для всього людства надзвичайно важливо знайти спосіб вирішення проблем, до моменту їх виникнення, особливо, якщо це стосується штучного інтелекту та схожих технологій. Тому ця ініціатива (GPDR) спонукатиме індустрію не ігнорувати питання безпеки і зробить технології штучного інтелекту менш небезпечними для людства. Адже треба визнати, що ми не готові контролювати його: створення засобів контролю можливе лише після виникнення остаточної версії штучного інтелекту. Можливості контролю завжди відставатимуть від розвитку штучного інтелекту».

Денис Береговий, керуючий партнер юридичної компанії Axon Partners: «Не думаю, що ми дійдемо до законодавчого рішення, яке регламентуватиме, що ті чи інші рішення можуть приймати тільки роботи чи тільки машини.

eth

В GPDR закладений принцип «privacy by design», тобто, законодавство створює певні рамки, в яких проголошується пріоритет захисту приватних даних. І ці гарантії повинні бути закладені в архітектуру будь-яких технологічних чи бізнес-рішень. З одного боку, це, звичайно, створить певний дискомфорт для бізнесу, який вже використовує технології штучного інтелекту, але з іншого, це дозволить розробникам та користувачам рухатися в одному напрямку, чітко усвідомлюючи вимоги та принципи, враховуючи їх у своїх стратегіях і планах».

Довідка: Проект «Етика і Технології» є ініціативою Львівської бізнес-школи УКУ (LvBS) для дослідження впливу технологій на суспільство та людину, популяризації етичних аспектів технологічного розвитку. Ціллю проекту є започаткувати платформу для комунікації між технологічним бізнесом, суспільством, науковими та дослідницькими інституціями.

Проект реалізовується за підтримки Благодійного фонду «Повір у себе» – неприбуткової організації, заснованої Віктором та Іриною Іванчиками. Партнер проекту – Міжнародний інститут етики і проблем сучасності УКУ.