Пам’ятаєте той фільм «Вона» про хлопця, який розвинув нездорові стосунки зі штучним інтелектом? Очевидно, це зараз відбувається в реальному житті, і Сем Альтман вважає це одним із «крутих» способів використання ChatGPT.
На конференції Sequoia Capital AI Ascent на початку цього місяця генеральний директор OpenAI Сем Альтман відповів на безліч запитань про ChatGPT, зокрема на кілька, що стосувалися деяких серйозно тривожних тенденцій щодо використання людьми чат-ботів на базі штучного інтелекту.
Судячи з коментарів Альтмана під час сесії запитань і відповідей, технічні фахівці зі штучного інтелекту, очевидно, настільки відсторонилися, що не бачать у надмірній залежності від чат-ботів проблеми.
«Вони насправді не приймають життєвих рішень, не запитавши ChatGPT, що їм робити», — заявив Альтман, коли його попросили навести приклади «крутих» способів використання штучного інтелекту серед молоді. Альтман додав, що ChatGPT «має повний контекст кожної людини в її житті та того, про що вони говорили».
Альтман протиставив цей похмурий сценарій, заявивши, що люди віком від 30 років використовують ChatGPT як альтернативу Google. Хоча це все ще дещо нерозумно, враховуючи, що ChatGPT часто галюцинує та видає повністю вигадані або оманливі відповіді, це не так випалено, як покладатися на чат-бота, щоб визначити хід вашого життя.
На перший погляд ці коментарі можуть здатися безглуздими, як жартувати про використання WebMD замість звернення до лікаря. Але якщо це той вид нездорової надмірної залежності від ШІ, який OpenAI вважає «крутим», нам усім варто хвилюватися.
Зрештою, ШІ — це не людина і принципово не може замінити реальні людські зв’язки або зрозуміти чийсь життєвий досвід. Все, що він може робити, це імітувати та вивергати.
Це означає, що навіть якщо ШІ знає «повний контекст» кожної людини у вашому житті (що є кошмаром для конфіденційності), він не може зрозуміти, як вирішити суперечку, продовжити розрив стосунків або впоратися з колегою, який вас дратує, тому що ШІ — це не людина. Він не має поняття про стосунки чи емоції, лише рядки коду, що аналізують гору навчальних даних, зібраних з усього інтернету.
Звичайно, всі ми використовуємо Google для пошуку порад або проведення досліджень, тому вам можна пробачити, якщо ви думаєте, що використання ChatGPT нічим не відрізняється. Однак, коли ви шукаєте поради через Google, ви можете принаймні побачити, звідки беруться ці поради, або ви можете зайти на Reddit, де ви можете бути цілком впевнені, що отримуєте інформацію від реальних людей.
Навіть якщо ви усвідомлюєте ризики та обережно ставитеся до того, як використовуєте ChatGPT, все ще існують дуже реальні ризики щодо нездорових, навіть небезпечних стосунків зі штучним інтелектом.
Наприклад, в одному випадку, про який повідомляв Rolling Stone, жінка була змушена розірвати шлюб після того, як її чоловік почав захоплюватися теоріями змови, які він отримував від штучного інтелекту, що змусило її зауважити, що «все це схоже на Чорне дзеркало». Існує безліч інших подібних історій про людей, які перевернули своє життя через дивні духовні послання від чат-ботів зі штучним інтелектом.
Ще один жахливий приклад: батьки в Техасі подали до суду на Character.ai, чиї чат-боти, за їхніми словами, «заохочували самоушкодження, насильство та надавали своїм дітям сексуальний контент». Згідно з позовом, взаємодія з чат-ботами Character.ai включала неприйнятний сексуальний контент і навіть заохочувала одну з дітей убити своїх батьків, коли вони намагалися скоротити його час перед екраном.
Такий тип позову є гнітючим, тривожним і, на жаль, лише верхівкою айсберга. Ці чат-боти можуть генерувати повідомлення, які виглядають як повідомлення від реальної людини чи друга, через що дітям буде важко розрізняти стосунки зі справжніми людьми та розмови з чат-ботами.
Легко зрозуміти, як така взаємодія може призвести до того, що одного дня діти покладатимуться на чат-бота для прийняття всіх життєвих рішень або навіть будуть мати труднощі з побудовою міцної дружби, тому що вони розмовляють зі штучним інтелектом про своє життя, а не з реальною людиною.
Усе це говорить про те, що те, що більше людей звертаються за порадою до штучного інтелекту, не так «круто», як, очевидно, думає Сем Альтман. Наш розколотий, поляризований інтернет вже є результатом того, що люди ізолюють себе одне від одного. Нам потрібно більше спілкуватися одне з одним, а не зі штучним інтелектом.