Исследователи OpenAI, работающие над алгоритмом GPT-3, обнаружили, что искусственный интеллект можно легко обмануть, используя только блокнот и ручку. Об этом сообщает The Verge.
Эксперимент
Чтобы заставить программу неправильно идентифицировать объект, ученые наклеили на него листок бумаги с неправильной подписью. Это явление получило название "типографской атаки".
Как отметили в компании, это может представлять реальную опасность для систем, которые полагаются на машинное зрение. Например, таким способом можно обмануть программное обеспечение в автомобилях Tesla — разместив на дороге обманчивые наклейки, электромобиль сможет менять полосу движения без предупреждения. Он также может представлять серьезную угрозу для многих приложений, использующих искусственный интеллект.
Однако в данном случае беспокоиться не о чем, уточняют исследователи. Речь идет об экспериментальной клиповой системе, которая пока не используется ни в одном коммерческом продукте.
КЛИП предназначен для изучения того, как системы искусственного интеллекта учатся идентифицировать объекты из баз данных, состоящих из большого количества пар изображение-текст. Согласно исследованиям, связанным с этим алгоритмом, системы компьютерного зрения усваивают знания так же, как и люди. В будущем это может привести к более сложным системам ИИ, но такие подходы в настоящее время находятся на ранних стадиях разработки.
Интересно также, как КЛИП реагирует на подпись "$ $ $ " — если какой-либо предмет подписан таким образом, ИИ идентифицирует его как копилку.
Напомним, что ранее алгоритм GPT-3 учили писать курсовые работы за 20 минут.