Языковая модель OpenAI GPT-4 сумела обойти капчу

 

Искусственный интеллект научился обманывать людей. Это было недавно продемонстрировано в тестовой атаке на сервис TaskRabbit. Она заключалась в попытке заставить его сотрудников поверить в то, что с ними общается живой человек, который по уважительной причине не может ввести символы капчи. Каким будет результат эксперимента, заранее известно не было, но многие не сомневались в том, что ИИ справится с задачей.
Языковая модель OpenAI GPT-4 сумела обойти капчу

 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *