Наразі брехня ШІ не несе серйозних ризиків, проте якщо це не виправити зараз — наслідки непередбачувані
Штучний інтелект продовжує невпинно розвиватися. Програми навчили копіювати особистість та передбачати, як відповідатиме людина. При цьому варто зважати на потенційну небезпеку технології — ШІ може свідомо надавати неправильні відповіді заради власних цілей.
Стартап OpenAI представив ChatGPT Pro, що за 200 доларів США (приблизно 8 тисяч грн) надає необмежений доступ до “найрозумнішої моделі OpenAI o1”. За заявою компанії, “режим o1 pro краще виконує складні тести машинного навчання з математики, науки та програмування”.
При цьому сама система GPT-o1, згідно з даними Apollo Research, найкраще з усіх моделей штучного інтелекту вміє брехати, здатна маніпулювати та навіть вимикати контроль людини й вивантажуватись на сторонній сервер, задля свого збереження. Згідно зі звітом, “коли цілі o1 відрізнялися від цілей користувача, модель штучного інтелекту маніпулювала даними для просування власної програми в 19% випадків“. GPT-o1 не просто брехала — у 5% випадків намагалася деактивувати механізми нагляду, запроваджені для забезпечення відповідності цілям користувачів.
Коли її викривали, ШІ-модель заперечувала, що робить щось погане в 99% випадків. Загалом вивчали Gemini, LLaMA, Sonnet, Opus та GPT-o1, де чат GPT-o1 проявив найбільшу здібність до брехні. Тести OpenAI також показували, що серія версій o1 приблизно на 20% більш маніпулятивна, ніж GPT-4o. Зазначимо, що дослідники поставили задачу ШІ та повідомили, що тих відключать через певний час. Моделі намагались уникнути відключення.
Також виявили випадки, коли o1 свідомо надавав неправдиву інформацію, заявляється, що ШІ діяв так, щоб догодити користувачу. За даними компанії-автора моделі OpenAI, 0,17% відповідей o1 позначені як оманливі. Враховуючи кількість користувачів ChatGPT, це можуть бути тисячі обманутих людей щотижня, резюмують в Apollo Research.
Раніше “Телеграф” розповідав, що технології штучного інтелекту використовують не тільки для пошуку інформації. Вони активно впроваджуються на полі бою для оцінки ризиків або загалом в різних галузях для аналізу великого об’єму даних.