Binance стикається з наклепницькою кампанією на базі ChatGPT, яка пов’язує засновника з Комуністичною партією Китаю – ось остання інформація

Джерело: AdobeStock / Ірина Буданова

Binance став жертвою наклепницької кампанії чат-бота на основі штучного інтелекту, який поширює неправдиву інформацію про свого засновника Чанпена Чжао (CZ) і його передбачувану приналежність до Комуністичної партії Китаю.

Повідомляється, що за останні кілька днів Binance отримав десятки запитів від офісів Конгресу щодо CZ та його зв’язку з Китайською національною нафтовою корпорацією (CNPC).

Запити стосуються розмови ChatGPT, яка стверджує, що CZ створив платформу соціальних мереж для CNPC.

Однак Патрік Хіллманн, головний стратегічний директор Binance, заявив, що ця інформація не має фактичного підґрунтя.

«Для всіх шукачів криптовалюти та штучного інтелекту, ось тема ChatGPT, якщо хтось хоче покопатися. Як ви побачите, ChatGPT бере це з підробленого профілю LinkedIn і неіснуючої статті Forbes. Ми не можемо знайти жодної доказів цієї історії та існування сторінки LinkedIn».

За словами Гіллмана, ChatGPT отримав цю інформацію зі сфабрикованого профілю LinkedIn, якого не існує, і зі статті Forbes, якої також не існує.

Хіллман розкритикував ChatGPT за те, що він вводить людей в оману та завдає шкоди репутації Binance.

«Як і будь-яка нова технологія, зловмисники спочатку намагатимуться скористатися нею для отримання прибутку чи політичної вигоди. Я сподіваюся, що підвищення обізнаності про подібні проблеми завадить людям використовувати індивідуальні відповіді, створені штучним інтелектом, коли вони прагнуть зневажити когось. “

Він також зазначив, що Binance витрачає значний час і ресурси на дослідження того, як технологія блокчейн і ШІ можуть працювати разом.

Популярність чат-ботів ШІ зростає, але вони не застраховані від помилок

З моменту випуску OpenAI ChatGPT у листопаді минулого року чат-боти ШІ зробили це захопив інтернет штурмом.

Незважаючи на необмежений потенціал і широку функціональність, ці інструменти не застраховані від помилок. Насправді деякі чат-боти зі штучним інтелектом від популярних технологічних компаній вже зробили кілька жахливих помилок.

Наприклад, у своїй першій демонстрації чат-бот Google зі штучним інтелектом Бард помилково сказав, що космічний телескоп Джеймса Вебба зробив перші фотографії планети за межами нашої Сонячної системи.

Оскільки здатність штучного інтелекту генерувати неправдиву або оманливу інформацію може завдати реальної шкоди окремим особам і організаціям, багато організацій попросили вжити заходів захисту від поширення дезінформації за допомогою таких інструментів.

Адміністрація Байдена рекомендувала п’ять принципів, яких компанії повинні дотримуватися щодо розробки технологій штучного інтелекту за допомогою волонтерів.Білль про права.”

Ці принципи включають конфіденційність даних, захист від алгоритмічної дискримінації та прозорість щодо того, коли та як використовуються автоматизовані системи.

Національний інститут стандартів і технологій також надав добровільні огорожі, які компанії можуть використовувати для обмеження ризику заподіяння шкоди громадськості інструментами ШІ.

Можливо вам буде цікаво

НАПИСАТИ ВІДПОВІДЬ

введіть свій коментар!
введіть тут своє ім'я

Останні новини