🌎 Коллеги
@budni_manipulyatora рассказали, что Google DeepMind разработала ИИ-систему Search-Augmented Factuality Evaluator (SAFE), предназначенную для
фактчекинга результатов больших языковых моделей (LLM).
Правда, как это обычно бывает с масштабными системами, связанными с доступом к информации, есть
нюансы.
⏺В целом речь идёт о системах вроде Chat-GPT и ему подобных: дескать, LLM могут писать статьи, отвечать на вопросы и даже решать математические задачи. Но их постоянно надо проверять — теперь
очень пристрастный инструмент от Google готов сделать это за вас.
⏺Всё это подаётся под предлогом борьбы с фейками и дезинформацией. Но совершенно ясно, что на деле это инструмент для борьбы с
ненужной информацией.
⏺SAFE как будто автоматически проверяет правильность ответов LLM и выявляет неточности. При этом основным методом фактчекинга их результатов заключается
в поиске подтверждающих источников в Google. Круг замкнулся.
🔻В западных странах последнее время серьёзно взялись за отслеживание и регулирование информации, которая транслируется в общество. С этой целью не только создаются специальные инструменты и механизмы, но также подгоняется и законодательство, которое стремится не только
унифицировать представляемые данные, но и оформить
продающую систему: за определённые связи и деньги можно стать
достоверным и
одобряемым источником.
#медиатехнологии #глобализм
@pezdicide никакой химии — только факты