Компанія OpenAI (один з її засновників – Ілон Маск) в кінці весни представила третю версію своєї моделі GPT-3, призначеної для генерації текстів. Іншими словами, GPT-3 – це штучний інтелект, який уміє писати тексти. Ті, кому пощастило отримати обмежений доступ до тестування GPT-3, кажуть, що GPT-3 здатен писати новини, прес-релізи, технічну документацію та навіть музику і перетворювати запит в нескладний код на мові програмування.
Найцікавішим способом перевірити GPT-3 на практиці стала історія студента Ліама Порра, який за допомогою GPT-3 написав декілька матеріалів у свій блог на Hacker News. Задача автора людини – написати заголовок, вступ, додати фото. А решта генерувала система. Цікаво, що тексти позитивно сприймались аудиторією і лише один з читачів його блогу після двох тижнів читання цих автоматично згенерованих текстів зв’язався з Ліамом і спитав, хто писав цей текст.
Ця історія наводить на думки про те, якого мистецтва фейків досягли алгоритми. Може цьому сприяло довготривале співробітництво з StopFake та вивчення інструментів виявлення фейків, в тому числі вивчення стартапів, що працюють в цьому напрямку. «Відфотошоплені» картинки були змінені текстами з маніпулятивним змістом, банальні пропагандистські відеоролики змінили діпфейки (deepfake). Виходить, що настав час синтетичних текстових фейків. Або, якщо бути точнішою, прийшов час нової форми медіа, створеної штучним інтелектом, яку складніше ідентифікувати як формат, створений не людиною. Не знаю, чи можна назвати це текстовими діпфейками, але синтетичними текстовими фейками, я думаю, можна.
Можна припустити, що в якийсь момент наступить час, коли онлайн-тексти в своїй більшості будуть генеруватися алгоритмами. Як це змінить медіа і нашу реакцію на такий контент? Або, що іще цікавіше, яким він буде, цей контент? Поява Photoshop змінила видавничу справу та й інтернет загалом. Чи буде такою самою революцією поява GPT-3?
У світі засилля Photoshop особливо сильно стали цінуватися фотографії «без фотошопу», настільки сильно, що є прецеденти заборони використання графічного редактора, наприклад, до фотографій моделей, щоб не виховувати не реалістичність у сприйнятті людського тіла. Чи буде так само розвиватись технологія «штучності» текстів?
Очевидно, що нам доведеться пристосовуватись до нового рівня цифрової нереальності, а соціальним платформам та пошуковим системам якимось чином реагувати на ці тексти, що з’являтимуться поруч з «людськими».
Якщо застосування графічних редакторів чи технології deepfake до відео платформи уже вчаться розрізняти, чи зможуть вони ідентифікувати текстові фейки, зрозуміти і відрізнити які буде набагато складніше. А цим текстовим фейкам, використовуючи «ілюзію більшості», буде нескладно сформувати «суспільну думку», таку, як потрібно. Тому текстові фейки у випадку їх поширення можуть змінити нашу екосистему соціальних комунікацій, а якщо уявити, що на алгоритмічно згенерований текст почнуть алгоритмічно генеруватися коментарі, то прогноз песиміста від Bloomberg про те, що соціальні мережі зникнуть через поширення фейків, стане реальністю.