Похоже, что Google решила пойти по довольно спорному пути. Компания внезапно изменила правила для контрактников, которые занимаются оценкой ответов искусственного интеллекта, и теперь им приходится анализировать даже те темы, в которых они совершенно не разбираются.
Раньше всё было логично: если контрактник GlobalLogic (компании-подрядчика, принадлежащей Hitachi) видел вопрос про кардиологию, а сам в медицине не шарит – он мог просто пропустить такой запрос. Типа «извините, я в этом не эксперт, пусть оценит кто-то более компетентный». И это имело смысл, правда?
Но теперь Google резко поменяла правила. В новой инструкции, которая попала в руки журналистам TechCrunch, чётко сказано: никаких пропусков. Теперь оценщики должны разбирать все ответы подряд, даже если тема для них – темный лес. Е
динственное, что им разрешено – это добавить примечание «я не эксперт в этой области» и оценивать только те части ответа, которые они как-то могут понять.
«А как же точность? Разве не для того существовала возможность пропуска, чтобы передать оценку более компетентному специалисту?» – недоумевает один из контрактников в переписке, которую удалось увидеть TechCrunch.
Теперь пропустить задание можно только в двух случаях: если в нём не хватает какой-то критически важной информации (например, самого вопроса или ответа) или если контент настолько специфический, что требует особых форм согласия на проверку.
Самое интересное, что это решение вызывает серьёзные опасения по поводу достоверности ответов Gemini, особенно когда речь идёт о сложных технических темах или, что ещё хуже, о редких заболеваниях.
Представьте: человек без медицинского образования оценивает ответ ИИ про какую-нибудь сложную болезнь. Как это может повлиять на качество работы системы?
За внешним лоском генеративного ИИ стоят целые армии таких вот подрядчиков – «промпт-инженеров» и аналитиков, которые день за днём оценивают точность ответов чатботов. И от их работы напрямую зависит, насколько достоверную информацию будут получать обычные пользователи.