
Дослідники Google виявили простий, але ефективний прийом для покращення відповідей нейромереж: потрібно надіслати системі один і той самий промпт двічі.
LLM обробляють інформацію послідовно, і порядок частин запиту може впливати на результат. Наприклад, якщо запитання йде після контексту, модель іноді пропускає важливі деталі. Повторення вирішує цю проблему, дозволяючи ШІ бачити весь контекст цілісно. Так, у 47 із 70 тестів повторення запиту значно покращило точність. На деяких завданнях точність зросла з 21% до 97%. При цьому час очікування майже не збільшується. А потрійне повторення промпту та додаткові пояснення між ними («дозвольте, я повторю...») іноді давали ще кращі результати.
Цей трюк працює з моделями Gemini 2.0, GPT-4o, DeepSeek-V3 тощо. Водночас сучасним моделям, що «міркують» (як-от GPT-5 або Gemini 3), повторення користі не приносить, вони й так зазвичай повторно обробляють запит всередині ланцюжка міркувань.
Тож використовуйте у своїй роботі цей нехитрий прийом повторень, щоб отримувати кращі результати.
Підписуйтесь на Telegram-канал
«ОСВІТА | МОТИВАЦІЯ | ТЕХНОЛОГІЇ»
https://t.me/newedulife,
щоб першими отримувати цікаву та корисну інформацію.