Починаючи з порад з приготування їжі до допомоги в складанні текстів для виступів – так ChatGPT дозволив людям познайомитися з величезними можливостями штучного інтелекту (ШІ).
Штучний інтелект навчався на масивах текстових даних, створених людьми та розміщеними з мережі Інтернет. Таким чином в нейромережу ChatGPT було завантажено близько 300 мільярдів одиниць мови.
Кінцевим результатом є чат-бот, який на диво схожий на людину, але з енциклопедичними знаннями.
Повідомте ChatGPT, які продукти у вас є на кухні, і він запропонує вам спосіб приготування страви з них. Вам потрібно підготувати вступ до презентації чогось? Це не проблема!
Та чи все насправді так добре? Переконлива близькість ChatGPT із людськими реакціями має шанс стати могутнім засобом впливу для тих, хто має намір використовувати його можливості в не дуже добрих цілях.
Штучний інтелект прискорює прогрес і, за багатьох обставин, перевершує нашу людську здатність до розуміння. Автоматизація ускладнює людям виявлення негативної діяльності, такої як фішинг, впровадження вірусів у програмне забезпечення та маніпулювання системами штучного інтелекту для особистої вигоди через те, як ці системи бачать світ. Таким чином, деякі компанії вже почали працювати над виявленням і боротьбою з нечесним застосуванням ШІ. Одна з найбільших платформ онлайн-покеру, PokerStars, має спеціальну команду, яка працює над тим, щоб боти та штучний інтелект не використовувалися на шкоду гравцям. В той же час, PokerStars VR використовує Tox Mod, інструмент моніторингу чату зі штучним інтелектом, щоб допомогти своїй команді модераторів. Такі платформи, як Twitter і Facebook, видаляють три чверті того, що зловмисники поширюють у своїх мережах, але такої небажаної інформації, яка може повідомляти неправдиві дані людям в Інтернеті, принаймні в десять разів більше, ніж було раніше.
Донедавна розповсюдження фейкових новин та дезінформації передбачало залучення чималих обсягів праці людини. Тепер, згідно зі звітом Джорджтаунського університету, Стенфордської інтернет-обсерваторії та OpenAI, опублікованому в січні, технології штучного інтелекту, включаючи боти на кшталт ChatGPT, можуть суттєво полегшити та масштабувати операції так званих армій тролів.
Складні системи обробки мови, такі як ChatGPT, можуть впливати на так звані операції впливу в соціальних мережах.
Такі кампанії можуть мати різноманітні цілі, наприклад, направляти критику правлячої урядової партії у вигідне русло, просувати чи створювати перепони тій чи іншій політичній ідеї тощо. Для поширення фейкових новин чи неправдивої інформації створюються та використовуються фальшиві облікові записи у соцмережах.
У звіті, опублікованому в січні, також було зазначено, що конкурентоспроможність мовних моделей з контентом, написаним людиною може стати у нагоді пропагандистам, які будуть їх використовувати у своїх цілях, особливо враховуючи низьку собівартість такого контенту.
Експерти також попереджають, що такі переваги можуть дати доступ до більш широкої аудиторії, розробити нові тактики та стратегії впливу, а також зробити повідомлення кампанії набагато більш адаптованими та потенційно ефективними.
Поряд зі зростанням кількості неправдивої дезінформації, може покращитись і її якість. Системи ШІ можуть підвищити переконливість інформації та зробити ці повідомлення складними для розрізнення простими інтернет-користувачами, як частину узгоджених дій, спрямованих на дезінформацію.
Сплеск фальшивих облікових записів у соцмережах створив великі труднощі для платформ Twitter і Facebook, а швидке дозрівання систем мовних моделей сьогодні лише наповнить ці платформи ще більшим числом фейкових акаунтів. Так, штучний інтелект на кшталт ChatGPT може збільшити поширення фальшивих облікових записів до такого рівня, якого ми раніше не бачили.
Експерти попереджають про те, що генеративні мовні моделі можуть швидко й ефективно створювати фейкові статті та новини, які можуть поширюватися в соціальних мережах, ще більше додаючи до потоку неправдивих наративів, які можуть вплинути на виборців перед вирішальним туром.
Тож якщо взяти до уваги, що дезінформація та фейкові новини стають ще більшою загрозою через такі системи штучного інтелекту, як Chat-GPT, чи повинні платформи соціальних мереж бути максимально активними в плані реагування? Деякі фахівці переконані, що соцмережам буде важко справитися з таким публікаціями.
Facebook та інші платформи мали б помічати фейковий контент, але Facebook на сьогодні не дуже справляється з цим завданням.
Причини повільної реакції, а іноді і її повна відсутність, включають витрати на відслідковування кожної окремої публікації, а також усвідомлення того, що ці фейкові публікації мають на меті розлютити та розділити людей, що стимулює залучення аудиторії, а це вигідно Facebook.
Потенціал штучного інтелекту зробити світ кращим величезний. Важливо переконатися, що штучний інтелект не використовується на шкоду. Штучний інтелект має переваги та недоліки, але не можна заперечувати, що він значно впливає на світову економіку.
ШІ має власний набір проблем, як і будь-яка інша технологія. Однак не було б надто песимістично думати, що всі ці проблеми, включно з проблемою дезінформації, з часом будуть вирішені.