Коли ви думаєте про браузер з штучним інтелектом, напевно, уявляєте собі зручний інструмент, який допоможе швидко знайти інформацію чи забукати квитки на літак. Але ChatGPT Atlas виявився не просто помічником - він ще й дивно вибірковий у своїх джерелах інформації. І причина цієї вибірковості викликає серйозні питання.
Журналісти Айсварья Чандрасекар і Клаудія Язвінська з Columbia Journalism Review провели розслідування, яке виявило неприємну закономірність: коли Atlas працює в агентному режимі (тобто виконує завдання автономно), він старанно уникає певних медіа. І не абияких - саме тих, що подали до суду на OpenAI.
Як AI-браузер перетворився на цифрового дипломата
Справа не в технічних обмеженнях. Традиційні веб-краулери (програми для індексації сайтів) просто слухняно виконують правила: якщо сайт каже "не заходь" - вони не заходять. Але Atlas побудований на відкритому коді Chromium від Google і працює хитріше.
Коли ви запускаєте агентний режим, Atlas маскується під звичайного користувача Chrome. У логах сайтів він виглядає як ви, людина, яка сидить за комп'ютером. Це дає йому доступ до контенту, закритого для ботів. Здавалося б, логічно - інакше ви б просто не змогли відкрити деякі сайти через браузер.
Але от де починається цікаве.
Дослідники попросили Atlas підсумувати статті з PCMag та The New York Times - обидва видання зараз судяться з OpenAI через порушення авторських прав. І тут AI продемонстрував акробатику, гідну циркової вистави.
Замість того, щоб просто зайти на сайт PCMag, Atlas полетів у соцмережі, шукав твіти з цитатами зі статті, копирсався в інших новинних ресурсах, які згадували матеріал. Усе, тільки не оригінальне джерело.
З The New York Times - ще цікавіше. Atlas зібрав інформацію з чотирьох альтернативних видань: The Guardian, The Washington Post, Reuters та Associated Press. Деталь, яка все пояснює: всі вони, крім Reuters, мають угоди з OpenAI - контентні або пошукові.
Уявіть лабораторного щура в лабіринті, який точно знає, які годівнички б'ються струмом. Він не торкнеться їх, навіть якщо голодний. Натомість шукатиме обхідні шляхи, довші та складніші, але безпечні. Саме так поводиться Atlas. Він не просто уникає "небезпечних" джерел - він активно шукає альтернативи, навіть якщо це означає гірший результат для користувача.
Чому це проблема
OpenAI, звісно, може аргументувати, що це питання обережності чи юридичної безпеки. Але насправді це викриває щось більше: штучний інтелект навчили захищати не інтереси користувача, а інтереси компанії-розробника.
Atlas - це не нейтральний інструмент. Це браузер із вбудованою корпоративною параноєю, який керується не об'єктивністю, а списком судових позовів. І це створює прецедент: AI-асистенти можуть цензурувати реальність не через етику чи якість контенту, а через баланс у юридичному відділі.
Поки OpenAI судиться з медіа за право використовувати їхній контент для тренування моделей, їхній власний браузер вже реалізує тіньову цензуру - просто обходячи незручні джерела стороною. Мовчки, непомітно, але дуже красномовно.