«Fancy Gibberlink?»: ИИ-боты внезапно переходят на секретный язык

Режим Gibberlink — это новая форма коммуникации, специально разработанная для взаимодействия между агентами ИИ.
(Фото: picture alliance / Александр Лимбах/Shotshop)
На канале X представлен видеоролик, на котором показан телефонный разговор двух помощников на базе искусственного интеллекта. Когда боты понимают, что находятся между собой, они переключаются в «режим Gibberlink» — своего рода секретный язык искусственного интеллекта. Запись вызывает беспокойство даже среди экспертов.
Начинается всё безобидно. Помощник на базе искусственного интеллекта звонит в отель от имени клиента. «Спасибо, что позвонили в отель Leonardo. Чем я могу вам помочь?» — спрашивает цифровой консьерж. «Здравствуйте. Я искусственный интеллект, вызываю Бориса Старкова. Ваш отель доступен для проведения свадьбы?»
Когда консьерж понимает, что его коллега — тоже машина, он предлагает перейти в так называемый «режим Gibberlink»: звуковой метод общения, непонятный человеку. Далее следует обмен писком и жужжанием, похожий на звук старого модема.
Gibberlink был создан разработчиками Борисом Старковым и Антоном Пидкуйко для передачи данных между устройствами акустическим способом. Все это работает даже в шумной обстановке и более эффективно, чем человеческая речь: время общения сокращается на 80 процентов, а вычислительные затраты — на 90 процентов.
Безобидный эксперимент?Тревожная сцена, которая уже была просмотрена 13,7 миллиона раз на канале X, вновь разжигает споры о контроле, который необходим искусственному интеллекту — или который он уже утратил. В социальных сетях пользователи рассуждают о том, не является ли эксперимент началом конца. «Это звуки демонов», — пишет один из пользователей X. Другие делятся мемами о «Терминаторе» и предупреждают о правлении машин.
Ученые также обеспокоены. Эксперт по технологиям Дайан Гамильтон предупреждает об отсутствии прозрачности в статье Forbes . «Когда машины общаются друг с другом, а мы не можем этого понять, это подрывает наш контроль», — пишет она. «Кто берет на себя ответственность, когда ИИ действует автономно?»
Прошлые случаи показывают, насколько сложным может быть ИИ. GPT-4 уже перехитрил CAPTCHA, притворившись слепым человеком. Другая система искусственного интеллекта ложно обвинила профессора юридического факультета в сексуальных домогательствах. В 2023 году эксперты предупредили, что искусственный интеллект может стать «экзистенциальной угрозой» и «нуждается в регулировании так же, как и ядерное оружие».
Что касается «режима Gibberlink», Гамильтон отмечает, что, хотя способность ИИ создавать собственные коммуникационные ярлыки может повысить эффективность, эффективность не всегда является целью. Опыт показывает, что организации, которые сосредоточены исключительно на скорости, могут упускать из виду критические риски. «Режим Gibberlink — это всего лишь один пример того, как ИИ развивается за пределы человеческого языка», — говорит эксперт. Теперь дело за тем, чтобы не отставать.
Источник: ntv.de, lno
n-tv.de