Ответ на пост «Новая модель ChatGPT o1 тоже оказалась не семи пядей во лбу»
Задача не из сложных, явно не уровня Международной математической олимпиады, скорее уровня школьной или районной олимпиады.
Читайте внимательно. Вам никто и не говорил, будто модель решает задачи уровня ММО. Вам написали:
OpenAI рассказала, что на квалификационном экзамене на Международной математической олимпиаде OpenAI o1 правильно решила 83% задач
Конкретнее речь идёт об этапе AIME:
OpenAI o1 ranks in the 89th percentile on competitive programming questions (Codeforces), places among the top 500 students in the US in a qualifier for the USA Math Olympiad (AIME), and exceeds human PhD-level accuracy on a benchmark of physics, biology, and chemistry problems (GPQA). While the work needed to make this new model as easy to use as current models is still ongoing, we are releasing an early version of this model, OpenAI o1-preview, for immediate use in ChatGPT and to trusted API users.
Сперва американские школьники, любые желающие, пишут олимпиаду AMC10 или AMC12, там 25 задач с 5 вариантами ответов, неправильные ответы штрафуются.
Кто хорошо написал AMC, сдают AIME. Там 15 задач, вывод/доказательство записывать не надо, но вариантов ответа нет.
Баллы AMC и AIME суммируются. Набравшие больше других едут на финал: кто писал AMC10 (не старше 10 класса) - те на USAJMO, кто писал AMC12 - те на USAMO. В общей сложности их около 500 человек.
12 победителей USAMO и еще человек 15 прочих приглашаются в трехнедельную летнюю школу подготовки к ММО. Из них 6 человек поедут на ММО.
Таким образом, заявленный в новости "квалификационный экзамен ММО" - это американский этап AIME, очень грубо соответствующий российскому региональному этапу ВОШа.