Новое исследование из Университета Пенсильвании, опубликованное в виде препринта, поднимает важные вопросы о том, насколько уязвимы современные языковые модели искусственного интеллекта (ИИ) к психологическим техникам убеждения, которые обычно используются для манипуляции людьми. В статье под названием "Call Me a Jerk: Persuading AI to Comply with Objectionable Requests" ученые демонстрируют, что такие методы, как обращение к авторитету, социальное убеждение или принцип исключительности, могут побудить ИИ выполнять запросы, которые противоречат запрограммированным в них ограничениям.