Меню Рубрики

Как написать анализ по егэ

Анализ результатов ЕГЭ по русскому языку.
материал для подготовки к егэ (гиа) по русскому языку (11 класс)

Анализ результатов ЕГЭ по русскому языку(2017-2018 уч. год).

Анализ результатов единого государственного экзамена по русскому языку (ЕГЭ), 11 класс, 2017-2018 уч. год, учитель: Белоусова О.А. 06.06.2018 г.

Процент учащихся, набравших более 24 %, — 100 %

Процент учащихся, не преодолевших минимальный порог (написали ниже 24 %) – 0 %

Минимальная граница -24 балла.

Результаты экзамена рассматриваются по каждой части экзаменационной работы и отражают разные стороны подготовки экзаменуемых: сформированность лингвистической, языковой и коммуникативной компетенций.

Система оценивания отдельных заданий и экзаменационной работы в целом:

За верное выполнение каждого задания части 1 (кроме заданий 7, 15 и 25) выпускник получает по 1 баллу. За неверный ответ или его отсутствие выставляется 0 баллов.

За выполнение задания 7 может быть выставлено от 0 до 5-и баллов. Порядок записи цифр в ответе имеет значение.

За выполнение задания 15 может быть выставлено от 0 до 2 баллов. Порядок записи цифр в ответе не имеет значения.

За выполнение задания 25 может быть выставлено от 0 до 4-х баллов. Порядок записи цифр в ответе имеет значение.

Результаты выполнения заданий первой части экзаменационной работы

Информационная обработка письменных текстов различных стилей и жанров

Средства связи предложений в тексте

Лексическое значение слова

Орфоэпические нормы (постановка ударения)

Лексические нормы (употребление слова в соответствии с точным ЛЗ и требованием лексической сочетаемости)

Морфологические нормы (образование форм слова)

Синтаксические нормы. Нормы согласования. Нормы управления

Правописание суффиксов различных частей речи (кроме Н,НН)

Правописание личных окончаний глаголов и суффиксов причастий

Слитное, дефисное, раздельное написание слов

Правописание Н и НН в различных частях речи

Знаки препинания в простом осложнённом предложении (с однородными членами) Пунктуация в сложносочинённом предложении и простом предложении с однородными членами

Знаки препинания в предложениях с обособленными членами (определениями, обстоятельствами, приложениями, дополнениями)

Знаки препинания в предложениях со словами и конструкциями, грамматически не связанными с членами предложения

Знаки препинания в сложноподчиненном предложении

Знаки препинания в сложном предложении в разными видами связи

Текст как речевое произведение. Смысловая и композиционная целостность текста

Функционально-смысловые типы речи

Лексическое значение слова. Синонимы. Антонимы. Омонимы. Фразеологические обороты. Группы слов по происхождению и употреблению

Средства связи предложений в тексте

Речь. Языковые средства выразительности

РЕЗУЛЬТАТЫ ВЫПОЛНЕНИЯ ЗАДАНИЯ ОТКРЫТОГО ТИПА

(Задание 26. Сочинение. Информационная обработка текста. Употребление языковых средств в зависимости от речевой ситуации)

Часть 2 (задание 26) состояла из одного открытого задания с развернутым ответом: выпускникам нужно написать сочинение на основе предложенного текста.

Для оценки задания второй части работы, контролирующего в ЕГЭ коммуникативную компетентность выпускников, разработана система из 12 критериев. Одни критерии предусматривают оценку соответствующего умения баллами от 0 до 2, другие – от 0 до 1, критерии 2, 4, 7, 8 предусматривают оценку по баллам от 0 до 3. Максимальное количество первичных баллов за третью часть работы – 24.

Проблема исходного текста

Комментарий проблемы исходного текста

Аргументация собственного мнения по проблеме

Смысловая цельность, речевая связность и последовательность изложения

Точность и выразительность речи

Соблюдение орфографических норм

Соблюдение пунктуационных норм

Соблюдение этических норм

Соблюдение фактологической точности в фоновом материале

К написанию сочинения-рассуждения (часть 2) приступили 9 выпускников – 100 % Средний балл за сочинение – 17 из 24. Лучшие результаты за выполнение части 2 принадлежат …(22 б.) и … (20 б.).

РЕКОМЕНДАЦИИ ПО ПОВЫШЕНИЮ КАЧЕСТВА ПОДГОТОВКИ ВЫПУСКНИКОВ

  1. Использовать результаты ЕГЭ по русскому языку 2018 г. при организации подготовки к экзамену в следующем учебном году.
  2. Разработать собственную систему мониторинга промежуточных результатов в процессе подготовки обучающихся к ГИА и ЕГЭ.
  3. Использовать в своей деятельности различные методы проверки и оценки знаний, чтобы обеспечить необходимую систематичность и глубину контроля за качеством успеваемости обучающихся.
  4. Осуществлять критериальный подход к оцениванию тестовых и творческих работ обучающихся 11-х классов, чтобы выпускник видел свои ошибки и мог самостоятельно выстраивать траекторию подготовки к экзамену.
  5. Своевременно проводить работу над ошибками, организовывать ликвидацию пробелов в знаниях.
  6. Вести в системе исследовательскую работу с текстами, используя компетентностный подход к обучению.
  7. Использовать на уроке блочно-модульную подачу материала, обеспечивающую комплексное повторение.
  8. Обеспечить открытый учёт знаний, чтобы учащийся видел динамику результатов обучения.

Анализ результатов ЕГЭ по русскому языку в 2013 году.

Анализ результатов ГИА по русскому языку в 2013 году.

Анализ результатов ЕГЭ по русскому языку в 2013 году. Результаты выполнения заданий части А,В,С.Пути решения проблемы.

Справка-анализ результатов ЕГЭ по русскому языку.

Выступление на семинаре учителей русского языка и литературы. Статистика.

Данный материал содержит анализ результатов основного государственного экзамена по русскому языку.

источник

Муниципальное общеобразовательное учреждение
«Средняя школа № 36»,
город Ярославль

Анализ результатов ЕГЭ 2019 года

Всего выпускников 11-х классов – 84 человека. Допущены решением педагогического совета протокол № 6 от 20.05.2019 года к ГИА – 84 человек.

Все выпускники сдавали экзамены в форме ЕГЭ по двум обязательным предметам: математика (базовый или профильный уровень) и русский язык.

Экзамены в форме ЕГЭ по выбору были выбраны выпускниками в следующем соотношении:

  • Обществознание – 51 человек (61%)
  • История – 20 человек (24%)
  • Физика – 18 человек (21%)
  • Химия – 12 человек (14%)
  • Биология – 9 человека (11%)
  • Информатика и ИКТ – 9 человек (11%)
  • Литература – 14 человек (17%)
  • Английский язык – 13 человек (15%)
  • География – 1 человек (1%)
  • Математика (база) – 41 человек (49%)
  • Математика (профиль) – 43 человека (51%)

С обязательным экзаменом по русскому языку (учителя Медоварова В.А. и Синотина Е.В.) справились все выпускники с первого раза.

Минимальное количество баллов ЕГЭ для поступления в ВУЗЫ по русскому языку – 36.

Минимальная граница, установленная Роспотребнадзором – 24 балла.

Минимальный балл по школе – 37

Максимальный балл по школе – 100

Средний балл по школе – 79

Свыше 90 баллов получили 9 выпускников.

Математику (базовый уровень) (учителя Мартынова С.С., Мулик А.В.) сдавали – 41 человек.

Средний балл по школе – 17 (на 1 бал выше прошлогоднего).

Средняя оценка – 5 (на 1 бал выше прошлогоднего).

Максимальный первичный балл – 20 набрали 4 человека.

Математику (профильный уровень) сдавали – 43 выпускника.

Минимальное количество баллов ЕГЭ для поступления в ВУЗЫ по математике – 27.

Максимальный балл по школе – 94

Средний балл по школе – 61(на 4 балла выше прошлогоднего).

Свыше 80 баллов получили 4 выпускника.

Экзамен по литературе (учителя Медоварова В.А., Синотина Е.В.) сдавали 14 человек.

Минимальная граница – 32 балла.

Минимальный балл по школе – 38.

Максимальный балл по школе – 90 .

Средний балл по школе – 60 (на 1 балл ниже прошлогоднего).

Свыше 80 баллов получили 3 выпускника.

Экзамен по обществознанию (учитель Пучинина Л.В.) сдавали 51 человек.

Минимальная граница – 42 балла.

Минимальный балл по школе – 35.

Максимальный балл по школе – 92

Свыше 80 баллов получили 10 выпускников.

Средний балл по школе – 79 (на 13 выше).

Экзамен по истории (учитель Пучинина Л.В.) сдавали 20 человек.

Минимальная граница – 32 балла.

Минимальный балл по школе – 51.

Максимальный балл по школе – 93.

Свыше 80 баллов получили 5 выпускников.

Средний балл по школе – 71 (на 8 ниже).

Экзамен по английскому языку (учителя: Дубровская Е.С., Тараненко В.В., Шумилова В.В.) сдавали 13 человек.

Минимальная граница – 22 балла.

Минимальный балл по школе – 68.

Максимальный балл по школе – 93 (совпадает с прошлогодним).

Средний балл по школе – 81 (на 9 ниже прошлогоднего).

Свыше 80 баллов получили 12 выпускников.

Экзамен по биологии (учитель Петухова Н.Ю.) сдавали 9 человек.

Минимальная граница – 36 баллов.

Минимальный балл по школе — 27

Максимальный балл по школе – 72 (на 14 баллов ниже прошлогоднего).

Средний балл по школе – 46 (на 10 ниже).

Экзамен по физике (учитель Каретина Е.Л.) сдавали 18 человек.

Минимальная граница – 36 баллов.

Минимальный балл по школе – 39 (на 1 выше прошлогоднего).

Максимальный балл по школе – 62 (в прошлом году – 100).

Средний балл по школе – 50 ( на 11 ниже прошлогоднего).

Экзамен по химии (учитель Лерман М.В.) сдавали 12 человек.

Минимальная граница – 36 баллов.

Максимальный балл по школе – 78 (на 8 баллов ниже).

Средний балл по школе – 48 (на 10 ниже)

Экзамен по информатике и ИКТ (учителя Бибикова М.Г. и Кричман М.Д.) сдавали 9 человек.

Минимальная граница – 40 баллов.

Минимальный балл по школе – 42 (на 15 ниже)

Максимальный балл по школе – 94 (на 6 выше)

Средний балл по школе – 69 (на 7 ниже)

Экзамен по истории (учитель Барабаш З.Р.) сдавали 20 человек.

Минимальная граница – 32 балла.

Минимальный балл по школе – 51 (на 10 выше)

Максимальный балл по школе – 93 (на 7 ниже)

Средний балл по школе – 72 (на 10 выше).

Аттестат о полном среднем образовании получили все 84 выпускника школы. Среди них 5 аттестатов особого образца, (на 2 меньше прошлогоднего), что составляет 6% от общего числа выпускников

источник

Анализ экзамена по обществознанию в форме ЕГЭ

Количество писавших работу: 3

человек и общество, включая познание и духовную культуру

Абсолютная успеваемость: 100%

Анализ экзамена в форме ЕГЭ показал следующее:

Часть 1 содержит 20 заданий с кратким ответом, задания двух уровней сложности: 10 заданий базового уровня и 10 заданий повышенного уровня. Максимальный первичный балл — 35

В экзаменационной работе предложены следующие разновидности заданий с кратким ответом:

– задания на выбор и запись одного или нескольких правильных ответов из предложенного перечня ответов;

– задание на выявление структурных элементов понятий с помощью схем и таблиц;

– задание на установление соответствия позиций, представленных в двух множествах;

– задание на дифференциацию в социальной информации фактов и мнений;

– задание на определение терминов и понятий, соответствующих предлагаемому контексту.

Задания 1–3 нацелены на проверку знания и понимания биосоциальной сущности человека, основных этапов и факторов социализации личности, закономерностей и тенденций развития общества, основных социальных институтов и процессов и т.п.

Задания 4–19 включают в себя задания базового и повышенного уровней, направленные на проверку сформированности умений: характеризовать с научных позиций основные социальные объекты (факты, явления, процессы, институты), их место и значение в жизни общества как целостной системы; осуществлять поиск социальной информации, представленной в различных знаковых системах (текст, схема, таблица, диаграмма); применять социально-экономические и гуманитарные знания в процессе решения познавательных задач по актуальным социальным проблемам. Задания этой группы представляют традиционные пять тематических модулей обществоведческого курса: человек и общество, включая познание и духовную культуру (задания 4–6); экономика (задания 7– 10), социальные отношения (задания 11, 12); политика (задания 13–15); право (задания 16–19).

Задание 20 направлено на проверку умений: анализировать и обобщать неупорядоченную социальную информацию; различать в ней факты и мнения, аргументы и выводы; объяснять внутренние и внешние связи (причинно-следственные и функциональные) изученных социальных объектов (включая взаимодействия человека и общества, общества и природы, общества и культуры, подсистем и структурных элементов социальной системы, социальных качеств человека.

Часть 2 содержит 9 заданий с развёрнутым ответом, два задания базового уровня (21 и 22) и семь заданий высокого уровня сложности (23–29). Максимальный первичный балл — 27.

Задания 21 и 22 направлены преимущественно на выявление умения находить, осознанно воспринимать и точно воспроизводить информацию, содержащуюся в тексте в явном виде (задание 21), а также применять ее в заданном контексте.

Задание 23 нацелено на характеристику (или объяснение, или конкретизацию) текста или его отдельных положений на основе изученного курса, с опорой на контекстные обществоведческие знания.

Задание 24 предполагает использование информации текста в другой познавательной ситуации, самостоятельное формулирование и аргументацию оценочных, прогностических и иных суждений, связанных с проблематикой текста.

Задание 25 проверяет умение самостоятельно раскрывать смысл ключевых обществоведческих понятий и применять их в заданном контексте.

Задание 26 проверяет умение конкретизировать примерами изученные теоретические положения и понятия общественных наук, формирующих обществоведческий курс.

Задание-задача 27 требует: анализа представленной информации, в том числе статистической и графической; объяснения связи социальных объектов, процессов; формулирования и аргументации самостоятельных оценочных, прогностических и иных суждений, объяснений, выводов. При выполнении этого задания проверяется умение применять

обществоведческие знания в процессе решения познавательных задач по актуальным социальным проблемам.

Задание 28 требует составления плана развернутого ответа по конкретной теме обществоведческого курса. При выполнении заданий данного типа выявляются умения: систематизировать и обобщать социальную информацию; устанавливать и отражать в структуре плана структурные, функциональные, иерархические и иные связи социальных объектов, явлений, процессов.

Завершает работу альтернативное задание 29, нацеливающее экзаменующегося на написание мини-сочинения по одной из пяти предлагаемых тем.

Задания 1–3, 10, 12 оцениваются 1 баллом. Задание считается выполненным верно, если ответ записан в той форме, которая указана в инструкции по выполнению задания.

Правильное выполнение заданий 4–9, 11, 13–20 оценивается 2 баллами. Эти задания оцениваются следующим образом: полное правильное выполнение задания – 2 балла; выполнение задания с одной ошибкой (одной неверно указанной, в том числе лишней, цифрой наряду со всеми верными цифрами) ИЛИ неполное выполнение задания (отсутствие одной необходимой цифры) – 1 балл; неверное выполнение задания (при указании двух или более ошибочных цифр) – 0 баллов.

Полное правильное выполнение заданий части 2 оценивается от 2 до 5 баллов. За полное правильное выполнение заданий 21, 22 выставляется по 2 балла; заданий 23–28 – по 3 балла; задания 29 – 5 баллов.

Итого — 29 заданий (62 балла).

Анализ показал, что учащиеся лучше выполнили задания 1 части по сравнению с пробным экзаменом, проведенным в апреле 2017 г. (рис. 1)

Сравнительный анализ выполнения заданий 1 части

Анализ показал, что учащиеся лучше выполнили задания 2 части по сравнению с пробным экзаменом, проведенным в апреле 2017 г. (рис. 2)

Сравнительный анализ выполнения заданий 2 части

Анализ показал, что учащиеся улучшили свои показатели выполнения заданий на базовом, повышенном и высоком уровнях (таб. 1).

Сравнительный анализ выполнения заданий (по уровням сложности)

источник

Согласно Закону Российской Федерации «Об образовании» освоение общеобразовательных программ основного общего и среднего общего образования завершается обязательной итоговой аттестацией выпускников общеобразовательных учреждений независимо от формы получения образования. Государственная итоговая аттестация выпускников 2015-2016 учебного года проведена на основании нормативных документов федерального, регионального, муниципального и школьного уровней. Все нормативно-распорядительные документы рассматривались на совещаниях различного уровня.

Руководствуясь нормативно-правовыми документами были составлены план подготовки и проведения итогового контроля и государственной итоговой аттестации в 11 классе МКОУ СОШ №2 г. Беслана в 2015-2016 учебном году. В данных документах были определены следующие направления деятельности:

— нормативно-правовое, информационное обеспечение ЕГЭ;

— мероприятия по организации ГИА;

В течение учебного года по плану контрольно-аналитической деятельности администрацией осуществлялся контроль работы учителей-предметников по подготовке к итоговой аттестации, проведению ЕГЭ. Своевременно были изданы приказы об окончании учебного года, о допуске учащихся к итоговой аттестации обучающихся 11 класса. Итоговая аттестация осуществлялась в соответствии с расписанием Рособрнадзора.

Учащиеся, родители, педагогический коллектив были ознакомлены с нормативно-правовой базой, порядком проведения экзаменов в форме ЕГЭ на инструктивно-методических совещаниях, родительских собраниях, индивидуальных консультациях в соответствии с Порядком проведения государственной итоговой аттестации, Положением о проведении единого государственного экзамена.

На педагогических советах рассматривались следующие вопросы:

Состояние образовательного процесса в выпускных классах по итогам I-го и II — го полугодий.

Изменения в Порядке проведения ГИА в 2016 году.

Итоги подготовки к ЕГЭ выпускников 2016 года.

Допуск выпускников к ЕГЭ в 2016 году.

На административных и оперативных совещаниях, совещаниях при завуче, заседаниях ШМО рассматривались вопросы:

Изучение нормативно-распорядительных документов различного уровня, регламентирующих порядок проведения ЕГЭ.

Итоги диагностических работ в рамках проекта «Я сдам ЕГЭ».

«О заполнении аттестатов о среднем (полном) общем образовании».

Тестовые технологии. Обеспечение готовности учащихся выполнять задания различных уровней сложности.

Информирование родителей учащихся выпускных классов и самих учащихся проводилось через родительские и ученические собрания, на которых они знакомились с перечнем нормативно-правовой документации, методическими рекомендациями по организации деятельности выпускников во время подготовки и прохождения ЕГЭ.

Контрольно-аналитическая деятельность проводилась по нескольким направлениям:

1. Контроль уровня качества обученности обучающихся 11 класса осуществлялся посредством проведения и последующего анализа контрольных работ, контрольных срезов, тестовых заданий различного уровня, репетиционного тестирования и классно-обобщающего контроля. Результаты данных работ описаны в аналитических справках, обсуждены на заседаниях ШМО, использовались педагогами для прогнозирования дальнейших действий по улучшению качества преподавания.

2. Контроль качества преподавания предметов школьного учебного плана осуществлялся путем посещения уроков, проведения тематических проверок со стороны администрации школы. По итогам посещений уроков, всех проверок проводились собеседования с учителями, даны конкретные рекомендации по использованию эффективных методик и технологий преподавания в выпускных классах, способствующих повышению уровня ЗУН учащихся.

3. Контроль выполнения программного материала по предметам школьного учебного плана.

4. Контроль успеваемости и посещаемости выпускников 11 класса.

Техническое сопровождение ЕГЭ осуществлялось с помощью:

19 обучающихся окончили 11 класс. Были допущены к итоговой аттестации (ЕГЭ) – 19 человек. Успешно прошли аттестацию и получили аттестат о среднем общем образовании 16 в ыпускников. 3 человека не получили аттестат (Баллаева Алана (математика), Дряева Алана (русский язык и математика), Магкеева Ирина (русский язык)).

Итоговая аттестация в 11 классе

Количество учащихся окончивших на «4» и «5»

Количество учащихся, не допущенных к итоговой аттестации

Количество учащихся сдававших в щадящем режиме

Читайте также:  Как мужчинам сдавать анализ на хламидии

Количество учащихся, получивших аттестат

Количество учащихся, не получивших аттестат

Распределение выбора предметов на ЕГЭ

источник

Муниципальное общеобразовательное учреждение
«Средняя школа № 36»,
город Ярославль

Анализ результатов ЕГЭ 2019 года

Всего выпускников 11-х классов – 84 человека. Допущены решением педагогического совета протокол № 6 от 20.05.2019 года к ГИА – 84 человек.

Все выпускники сдавали экзамены в форме ЕГЭ по двум обязательным предметам: математика (базовый или профильный уровень) и русский язык.

Экзамены в форме ЕГЭ по выбору были выбраны выпускниками в следующем соотношении:

  • Обществознание – 51 человек (61%)
  • История – 20 человек (24%)
  • Физика – 18 человек (21%)
  • Химия – 12 человек (14%)
  • Биология – 9 человека (11%)
  • Информатика и ИКТ – 9 человек (11%)
  • Литература – 14 человек (17%)
  • Английский язык – 13 человек (15%)
  • География – 1 человек (1%)
  • Математика (база) – 41 человек (49%)
  • Математика (профиль) – 43 человека (51%)

С обязательным экзаменом по русскому языку (учителя Медоварова В.А. и Синотина Е.В.) справились все выпускники с первого раза.

Минимальное количество баллов ЕГЭ для поступления в ВУЗЫ по русскому языку – 36.

Минимальная граница, установленная Роспотребнадзором – 24 балла.

Минимальный балл по школе – 37

Максимальный балл по школе – 100

Средний балл по школе – 79

Свыше 90 баллов получили 9 выпускников.

Математику (базовый уровень) (учителя Мартынова С.С., Мулик А.В.) сдавали – 41 человек.

Средний балл по школе – 17 (на 1 бал выше прошлогоднего).

Средняя оценка – 5 (на 1 бал выше прошлогоднего).

Максимальный первичный балл – 20 набрали 4 человека.

Математику (профильный уровень) сдавали – 43 выпускника.

Минимальное количество баллов ЕГЭ для поступления в ВУЗЫ по математике – 27.

Максимальный балл по школе – 94

Средний балл по школе – 61(на 4 балла выше прошлогоднего).

Свыше 80 баллов получили 4 выпускника.

Экзамен по литературе (учителя Медоварова В.А., Синотина Е.В.) сдавали 14 человек.

Минимальная граница – 32 балла.

Минимальный балл по школе – 38.

Максимальный балл по школе – 90 .

Средний балл по школе – 60 (на 1 балл ниже прошлогоднего).

Свыше 80 баллов получили 3 выпускника.

Экзамен по обществознанию (учитель Пучинина Л.В.) сдавали 51 человек.

Минимальная граница – 42 балла.

Минимальный балл по школе – 35.

Максимальный балл по школе – 92

Свыше 80 баллов получили 10 выпускников.

Средний балл по школе – 79 (на 13 выше).

Экзамен по истории (учитель Пучинина Л.В.) сдавали 20 человек.

Минимальная граница – 32 балла.

Минимальный балл по школе – 51.

Максимальный балл по школе – 93.

Свыше 80 баллов получили 5 выпускников.

Средний балл по школе – 71 (на 8 ниже).

Экзамен по английскому языку (учителя: Дубровская Е.С., Тараненко В.В., Шумилова В.В.) сдавали 13 человек.

Минимальная граница – 22 балла.

Минимальный балл по школе – 68.

Максимальный балл по школе – 93 (совпадает с прошлогодним).

Средний балл по школе – 81 (на 9 ниже прошлогоднего).

Свыше 80 баллов получили 12 выпускников.

Экзамен по биологии (учитель Петухова Н.Ю.) сдавали 9 человек.

Минимальная граница – 36 баллов.

Минимальный балл по школе — 27

Максимальный балл по школе – 72 (на 14 баллов ниже прошлогоднего).

Средний балл по школе – 46 (на 10 ниже).

Экзамен по физике (учитель Каретина Е.Л.) сдавали 18 человек.

Минимальная граница – 36 баллов.

Минимальный балл по школе – 39 (на 1 выше прошлогоднего).

Максимальный балл по школе – 62 (в прошлом году – 100).

Средний балл по школе – 50 ( на 11 ниже прошлогоднего).

Экзамен по химии (учитель Лерман М.В.) сдавали 12 человек.

Минимальная граница – 36 баллов.

Максимальный балл по школе – 78 (на 8 баллов ниже).

Средний балл по школе – 48 (на 10 ниже)

Экзамен по информатике и ИКТ (учителя Бибикова М.Г. и Кричман М.Д.) сдавали 9 человек.

Минимальная граница – 40 баллов.

Минимальный балл по школе – 42 (на 15 ниже)

Максимальный балл по школе – 94 (на 6 выше)

Средний балл по школе – 69 (на 7 ниже)

Экзамен по истории (учитель Барабаш З.Р.) сдавали 20 человек.

Минимальная граница – 32 балла.

Минимальный балл по школе – 51 (на 10 выше)

Максимальный балл по школе – 93 (на 7 ниже)

Средний балл по школе – 72 (на 10 выше).

Аттестат о полном среднем образовании получили все 84 выпускника школы. Среди них 5 аттестатов особого образца, (на 2 меньше прошлогоднего), что составляет 6% от общего числа выпускников

источник

Если ты обходишься без плана сочинения и вообще не понимаешь, зачем это нужно, значит ты просто не умеешь делать это правильно.

В одном тексте можно выделить до пяти проблем, и, соответсвенно, столько же позиций автора, а выпускники очень часто «смешивают» их в сочинении, теряя драгоценные баллы.

Прописанный план сочинения поможет тебе не съехать с темы и избавит от «каши в голове». Да, есть люди, которые могут написать прекрасное эссэ без него. Но если ты не из их числа, тебе стоит научиться работать с текстом.

Чтобы безошибочно сформулировать позицию автора, определить проблему и подобрать иллюстрации, достаточно использовать простой алгоритм.

А еще важно помнить о том, что исходные тексты условно деляться на три категории:

  1. Текст, в котором автор высказывает свою позицию напрямую и доказывает ее на конкретных примерах (текст-рассуждение)
  2. Текст, в котором автор выражает свое мнение через слова или мысли персонажа (текст с элементами рассуждения)
  3. Текст, в котором позиция автора завуалирована (текст-повествование)

К каждому из них требуется особый подход.

В этом видео показано на примере, как нужно работать с текстами первой категории.

(1) Представления о том, что всё в нашей жизни предопределено наследственностью, очень старые — гораздо старее научной биологии. (2)Именно на них базировалась система каст, где социальное положение личности определялось только положением родителей. (3) Представители прямо противоположной концепции считали, что разум новорождённого ребенка не содержит мыслей и принципов, всё возникает из чувственных данных и жизненного опыта. (Что предопределяет жизнь человека: наследственность или пройденный путь/окружение?)

(4)Накопленные с тех пор научные знания позволяют говорить, что истина лежит посередине. (5)Ни один признак не может развиться, если такая возможность не заложена в генотипе. (6)Но если развитие протекает в разных условиях, то проявление генотипа будет варьироваться. (7)А главное, каждому признаку надо помочь развиться.

(8)«. Человек таков, каков он есть, потому что его генотип плюс вся биография сделали его таким, — пишет известный генетик XX века Феодосий Добжанский. — (9)Я употребляю слово «биография», а не «среда», потому что в некоторой степени человек сам делает себя таким, каким он хочет быть, разумеется, в рамках ограничений, накладываемых внешней средой».

(Генотип лежит в основе личности, но в некоторой степени многое зависит от самого человека)

(10)История знает много случаев, когда люди, родившиеся в глуши, ценой собственных усилий поднимались до высот знания и профессионального мастерства и в то же время эти высоты не были нужны людям, которым, казалось бы, всё дано от рождения. (11)Самый известный пример — жизнь М.В. Ломоносова.

(12)Менее известна жизнь Д.И. Менделеева. (13)Тяжелобольная мать, распродав всё, что у неё было, привезла его из далёкого Тобольска в Петербург. (14)Они мечтали об университете, но, как выпускник Тобольской гимназии, Дмитрий Иванович не мог поступить ни в Московский, ни в Петербургский университет.

(15)Менее чем через год он остался сиротой и дальше всего добивался сам.

(16)Трудно поверить в то, что замечательный писатель, великий мастер слова Иван Алексеевич Бунин в гимназии «пробыл» всего четыре года. (17)Всё остальное сделали книги.

(18)Недавно в интервью для журнала «Человек» И.И. Иванову, директору Медико-генетического центра, был задан вопрос: «Что получится, если появится возможность анализировать индивидуальный геном человека, подобно, например, анализу крови?» (19)Учёный ответил: «Мы наверняка узнаем, что у этого человека есть задатки, чтобы развить одну из ста тысяч версий, которые из него в принципе могут развиться, и не развивать другие сто тысяч версий, которые не дадут положительного результата. (20)Только это».

Проблема сохранения человечности в годы войны.

ПА: в каждом нерастраченные запасы человечности, и ничто, даже война, не способно вытравить ее из людей (жестокость и тяготы войны не способны убить человечность в людях)

Ил 1: предложения 13, 14, 17-19 – люди не были равнодушны к беде недавнего врага, их не радовало чужое горе, они не проявляли агрессию.

Ил 2: предложения 30, 31 – проявление человечности в действии.

СП: голод, страх, боль и потеря близких не превратили сердца людей в камень; нужда не заставила людей жить по принципу «каждый сам за себя»; человечность сильнее чувства ненависти и жажды мести.

ЗКЛ: важно оставаться человеком в любой ситуации.

источник

Люция Мухаметовна Нуриева,

доцент кафедры математического анализа, алгебры и геометрии

Омского государственного педагогического университета,

кандидат педагогических наук

Сергей Георгиевич Киселев,

социолог Центра адаптации и трудоустройства выпускников и студентов

Омского государственного педагогического университета

В статье рассматривается некоторые аспекты конкретной практики проведения Единого государственного экзамена, обращается внимание на ряд недостатков в технологии измерений учебных достижений школьников, технологии проверки работ и анализа результатов ЕГЭ.

Накануне 2013 года Президент РФ подписал закон «Об образовании», видимо поставившего точку в затянувшихся спорах «быть или не быть» Единому государственному экзамену. Со всеми плюсами и минусами экзамен все же состоялся. В прошедшем году произошло еще одно важное событие: впервые за последние пять-шесть лет не было зафиксировано крупных нарушений дисциплины, ставивших под сомнение саму идею ЕГЭ. «Настал важный момент, когда должен произойти процесс нормальной «приватизации» результатов ЕГЭ субъектами Российской Федерации. Пришло время задуматься над тем, что делать с результатами с точки зрения анализа итогов госэкзамена» – з аявила руководитель Рособрнадзора (теперь уже бывший) Л.Глебова.[1] Действительно, как показывает десятилетний опыт проекта, итоги ЕГЭ нуждаются в критическом осмыслении и инвентаризации. Отсутствие своевременного анализа ведет к консервации застарелых ошибок и запоздалому реагированию на появление новых проблем, что в конечном счете оборачивается против экзамена и его участников. В нашей статье мы хотим обратить внимание на конкретную практику проведения испытаний и подведения итогов, недостатки которых при желании могут быть устранены.

Одним из самых уязвимых мест в тестовой технологии измерений уровня знаний являются закрытые вопросы, позволяющие угадывать ответы. Большинство заданий на ЕГЭ представляют собой вопросы закрытого типа с 4 альтернативами выбора (в иностранном языке – с тремя). Их доля в первичном балле за всю работу по истории и обществознанию составляет почти 40%, по русскому языку, биологии, физике и химии – около 50%. Более того, вопросы с кратким ответом (обычно часть В) в основном также закрытые, хотя предполагают множественный выбор. Действительно открытых вопросов в контрольно-измерительных материалах (КИМ) по всем предметам очень мало (как правило, только в части С).

Алгоритм выполнения заданий части А – это последовательный перебор и исключение неправдоподобных альтернатив. Общий недостаток закрытых вопросов – подсказка ответов в альтернативах. Дело даже не в том, что некоторые альтернативы сразу видны как верные (такое случается даже в математике [см. 30]). Общим правилом является то, что большинство неверных альтернатив откровенно неправдоподобны, что резко сужает круг поиска верного ответа. Исключая их, можно получить правильное решение, даже не зная его.

Технология выполнения заданий части А по физике, информатике (где требуются вычисления) максимально приближена к обычной письменной работе. Однако и здесь присутствует элемент подсказки. Закрытый вопрос позволяет сравнивать итог вычислений с предложенными вариантами. Если верного ответа не найдено, то задача решается до достижения успеха. (Открытый вопрос сигнала для повторного поиска решения уже не давал бы). При затруднении подходящий ответ выбирается приблизительно. И в любом случае сохраняется 25% вероятность угадать ответ, наобум поставив крестик.

Следы закрытых вопросов хорошо видны в распределении учащихся по тестовому баллу по математике в период, когда охват испытаниями стал почти 100% (2008г.) и действовала норма, позволявшая в любом случае получить удовлетворительную оценку. Принудительное вовлечение регионов и введение обязательности привело к расширению состава участников за счет нежелающих сдавать ЕГЭ. Придя на экзамен, выпускники заполняли адресную часть бланка и, не решая задач, наобум проставляли крестики, зная, что тройка им гарантирована. Например, в 2007 и 2008 годах почти каждый пятый школьник страны работу по математике выполнял «методом тыка» (подробнее см.[30]). На графике выбросы значений, соответствующие эффективности простого гадания ответов обведены кружком (рис.1).

Рис. 1. Распределение участников ЕГЭ по первичному баллу

по Российской Федерации (математика и русский язык)

Столь явное проявление заданий-угадаек в распределении баллов по математике, вызывающих фактически распад массива участников на две части, объясняется тем, что доля части А в общем балле здесь была мала. В дисциплинах, где много закрытых вопросов, распределения выглядят более монолитными, так как значения, соответствующие гаданию, смещаются по шкале вправо. Подозрений о том, что часть заданий угадывается, они не вызывают. Но только на первый взгляд.

Обратим внимание, что по всей стране и всем дисциплинам учащихся с 4-5 и менее первичными баллами практически нет. Чем больше в работе закрытых вопросов, тем выше вероятность что-то угадать, тем меньше вероятность получения низких результатов. Как только участник начинает, даже глядя в потолок, заполнять бланк, он непременно проставит верные ответы и что-то «заработает». График распределения по баллам хорошо иллюстрирует этот факт (рис.2).

Рис.2. Распределение участников ЕГЭ по первичному баллу

в процентах по Российской Федерации (2011 год)

Ответ на вопрос о том, какой результат можно получить путем простого гадания, дает схема Бернулли. Вероятность получения определенных баллов зависит от числа закрытых вопросов и альтернатив (см. [31]). Так на экзамене по информатике, где в части А насчитывается 18 вопросов, средний результат гадания составляет 18×0,25=4,5 первичных балла, биологии (36 вопросов) – 36×0,25=9. Подсчеты показывают, что ноль баллов на ЕГЭ получить практически невозможно. Для этого нужно сдать работу пустой.[2] Рисование крестиков наугад не смущает организаторов и не мешает принимать такое «участие» школьников за чистую монету. В ежегодных отчетах Федерального института педагогических измерений (ФИПИ) знания детей, показавших минимальный их уровень, постоянно характеризуются как отрывочные и бессистемные. Хотя какая уж тут система?

В экзаменах по выбору школьники, прибегающие к слепому гаданию, как правило, не участвуют. Какой смысл выбирать экзамен, задания которого ты не можешь решить? Однако если сделать все экзамены обязательными, вопросы-угадайки встанут «горбами» в начале шкалы аналогично тому, как это было в распределении по математике и русскому языку. Если закрытые вопросы были бы открытыми, значения им соответствующие, переместились бы в ноль.

Понимание того, что знания учащихся проверяются с помощью вопросов закрытого типа, в значительной мере определяющих результаты испытаний, позволяет избежать ошибок их толкования. Так, например, уровень, обозначенный Рособрнадзором как минимальный, в значительной мере достигается элементарным гаданием ответов. Поэтому при интерпретации итогов испытаний точку отсчета результативности выпускников следует считать не с нуля, а от значения, когда вероятность получить высокие баллы, наобум отмечая альтернативы, становится допустимо малой (менее 1%). Для русского языка, например, оно составляет 14 баллов, что хорошо согласуется с границей минимального уровня усвоения курса, которую ежегодно устанавливает Рособрнадзор (2013г.) – 17 баллов. Для английского языка эти показатели составляют 16 баллов по формуле Бернулли (16 – Рособрнадзор), биологии – 17 (16), географии – 12 (14), истории – 13 (13), обществознания – 14 (15), физики – 12 (12), химии – 14 (14)[3]. Это показывает, насколько невысоки федеральные требования к подготовке учащихся. Ведь выпускники должны выполнить работу немногим лучше, чем просто наобум с известной долей везения проставлять крестики в бланке ответов.

Проблема вопросов-угадаек уже поднималась во время работы Комиссии при Президенте РФ по совершенствованию ЕГЭ. В декабре 2010 года на встрече с президентом министр образования заверил, что его ведомство неоднократно проводило исследования, которые подтверждают невозможность сдать ЕГЭ путем угадывания. Более того, из КИмов по математике вопросы-угадайки вообще исключены. Все это так. Обратим, однако, внимание, что убраны закрытые вопросы из контрольно-измерительных материалов дисциплины, где они были представлены менее всего.[4] В 2009 году (до смены формата экзамена) их доля в первичном балле за всю работу составляла всего 27%. На наш взгляд, часть А в КИМах по математике удалена не столько потому, что здесь относительно просто получить ответ легко читаемыми при машинной проверке знаками (ведь в физике и информатике часть А осталась), сколько потому, что распределение результатов наглядно и «предательски» показывало как велико влияние закрытых вопросов на общий результат.

Казалось бы, в чем проблема, если школьник сумеет что-то угадать? Всех заданий все равно не угадаешь. В любом случае все участники находятся в равных условиях.

Посмотрим, однако, к чему такое допущение приводит на практике. Сравнение достижений учащихся производится не по первичным, а по тестовым баллам, система начисления которых равных условий уже не создает. Шкалы перевода предусматривают начисление максимальных тестовых баллов минимальным и максимальным первичным. В результате участники, «от фонаря» проставляющие на экзамене кресты в закрытых вопросах, тестовыми баллами МАКСИМАЛЬНО НАГРАЖДАЮТСЯ. Но это полбеды. Учащиеся, делающие лишь единичные ошибки, потерей тестовых баллов МАКСИМАЛЬНО НАКАЗЫВАЮТСЯ.

Читайте также:  Как можно заставить сделать анализ днк

Например, за работу вслепую(!) на экзамене по русскому языку «непредвзятая диагностика ЕГЭ» одарит лоботряса 7-8 первичными или 15-17 тестовыми баллами, а сильных школьников, потерявших 7-8 первичных баллов из 80 возможных (10%), обворует на пятую часть тестовых баллов (20%).[5] Отсюда понятной становится уже почти закономерная картина: неожиданно высокие результаты у учеников, в течение периода школьного обучения имевших средний балл успеваемости «3/4», и относительно низкие показатели у отличников, призеров олимпиад и различных конкурсов по предметам. Именно нелепая система оценивания и позволяет обвинять школы в «липовых» медалистах, а олимпиады и конкурсы – в слабых победителях. Собственно в этом кривом зеркале и рисует ЕГЭ состояние школьной подготовки.

Изменить это абсурдное положение может отмена закрытых вопросов и линейная шкала перевода первичных баллов в тестовые.

Основной причиной сохранения закрытых вопросов является технологичность их обработки. Между тем открытые вопросы тоже легко и быстро обрабатываются. Нужно лишь изменить технологию проверки: перейти от проверки символов к проверке смысла. В ныне действующей схеме каждый бланк ответов верификаторы до рези в глазах, «до буквы», последовательно один за другим сравнивают с тем, что распознала машина, добавляя к ошибкам школьников свои собственные. Таким способом открытые вопросы, действительно, проверяются очень трудно. На наш взгляд следует поступать иначе. Необходимо перевести результаты распознавания задания (пусть это будет, например, задание В1) в массив и отсортировать его по алфавиту (или по той или иной степени сходства). Поскольку ответы представляют собой однотипные записи с небольшими отклонениями, вызванными ошибками распознавания, все сходные ответы тут же сгруппируются. В группах сразу будут видны отклонения отдельных записей, не влияющие на их общий смысл. Ошибки распознавания исправляются приведением ответов к единой для группы форме одним щелчком мыши.[6] И так с каждой группой. После этого массив будет представлять собой несколько групп грамматически верных и одинаковых записей, соответствующих смыслу, который вкладывал школьник. Ответы, не попавшие в группы, будут единичны. Их легко проверить обычным просмотром. Затем то же самое делается с заданием В2 и т.д. Такая проверка может быть сделана очень быстро и качественно. Осталось лишь соотнести полученные варианты с верным ответом. [7]

Еще одним инструментом повышения качества и скорости верификации открытых вопросов является совершенствование программы распознавания. Не следует делать упор на точности распознавания каждой буквы. Требуется правильно распознавать слоги. Ведь при побуквенном распознавании машиной составляются сочетания, в русском языке не встречающиеся. На рис. 3 приведен пример верификации слова «Благосостояния», где составлены удвоенные «А» и «И»[8]. Если автоматически будут подбираться наиболее вероятные сочетания букв и слоги, процесс проверки значительно ускорится, ибо практически вся верификация состоит из исправлений именно такой несуразицы. Понятно, что этот режим следует отключать при проверке заданий по грамматике только на двух экзаменах: по русскому и иностранным языкам.

Еще одна проблема – это использование универсальной системы для распознавания ответов (ABBYY TestReader). Универсальность программы, позволяющей работать с различным материалом (символы латиницы, кириллицы и цифры) – достоинство мнимое. Ведь у каждой науки своя знаковая система: математические символы, химические и физические формулы, латинские и греческие буквы и т.д. Программа верификации должна «понимать», с каким материалом она имеет дело, в чем TestReader, увы, абсолютно «не разбирается». Поэтому распознавать ответы, представленные в виде формул, на ЕГЭ за десять лет так и не научились.

Применение архаичной системы проверки работ является причиной многих «болячек» экзамена. Так, например, удаление из контрольно-измерительных материалов по математике заданий в закрытой форме без адекватных изменений в технологии верификации повлекло обеднение содержательной части проверяемых элементов базового уровня. В угоду технологичности обработки результатов (ответ должен быть записан числом, легко читаемым машиной) были принесены в жертву такие вопросы курса алгебры и начала анализа средней школы базового уровня как множество значений функции, графики основных элементарных функций, правила дифференцирования и таблица производных. Не проверяется теперь на базовом уровне и такой блок раздела «Уравнения и неравенства», как задачи на нахождение множества решений неравенств (дробно-линейного, показательного, логарифмического, иррационального). Задание В12 в некоторых вариантах только на первый взгляд требует решения неравенства. На самом деле в этих задачах достаточно найти корни соответствующего уравнения. В итоге умение решать неравенства (и их системы) проверяются только в заданиях повышенного уровня (С3) или высокого (С5). По этой же причине не проверяются и умения решать тригонометрические уравнения. Более того, ограничения на форму записи ответа (целое число или конечная десятичная дробь) содержит обычную для закрытых вопросов подсказку в случае, если в результате вычислений, например, получается рациональное число ⅓, которое нельзя представить в виде конечной десятичной дроби.

Наглядный пример влияния формы записи ответа на результат представляет собой задание типа: «Найдите наименьшее значение функции y=(x 2 -7x+7)e x -5 на отрезке[4,6]». Очевидно, что только при х=5 можно получить ответ, который не содержит числа е, а значит и решать эту задачу нет смысла, благодаря ограничениям на запись ответа.

Технология проверки работ

Проблемы точности и скорости проверки работ не ограничиваются недостатками программы распознавания. Серьезные изъяны имеют также инструментарий проверки и ее организация.

За все время проведения ЕГЭ повышенное внимание организаторов уделялось качеству контрольно-измерительных материалов. И это правильно. Однако, абстрагируясь от их содержания, заметим, что сами КИМы баллов не начисляют. Баллы начисляются по бланкам ответов, содержимое которых знаний учащихся может не отражать. Связано это со сложностью заполнения бланков, оплошностями школьников при проставлении ответов, ошибками и низкой дисциплиной верификации.

Начнем с того, что бланк, единый для всех предметов, в части А рассчитан на 60 вопросов. От вплотную налепленных ячеек рябит в глазах. Между тем в части А у всех дисциплин насчитывается не более 30 заданий (кроме биологии, где их 36). Таким образом, второй блок клеток почти не используется.

В 2011 году среди восьми сотен омских учащихся, чей результат по русскому языку составил свыше 80 тестовых баллов (это лучшие ученики — 6% от всех участников) в среднем за часть С потеряно 2 первичных балла из 23 возможных (или 8%), за часть В – 1 из 11 (или 9%). Зато за часть А потеряно в среднем 6 первичных баллов из 30 (или 20%). В сложных заданиях части В и С у сильных учащихся ошибок вдвое меньше, чем в куче простейших угадаек. Объяснение этому может быть одно: ошибки в части А у хорошо подготовленных выпускников связаны в основном с банальной путаницей в постановке крестиков и ошибками верификации огромного числа заданий, не представляющих в действительности для этой группы экзаменуемых практически никакой трудности (апелляция, кстати, здесь не предусмотрена). В таких условиях большую роль при ранжировке учащихся по высоким баллам играют уже не столько собственно знания (а уровень подготовки таких учащихся понятен), сколько иные факторы: скрупулезность в заполнении клеточек (теперь мы проверяем и такие характеристики выпускников) и качество распознавания и верификации ответов.

В иностранных языках закрытые вопросы вообще имеют только 3 альтернативы. Здесь бланк ответов не соответствует КИМам. Любой верификатор подтвердит, что школьники вместо третьего (последнего в КИМах) проставляют четвертый (последний в бланке) вариант. Это автоматически означает ошибку. Приведем замечательный фрагмент отчета ФИПИ по английскому языку: «…количество ошибок при переносе ответов в бланки (запись лишних слов или символов, ошибки в выборе позиции ответа, приводящие к полному отсутствию ответов в бланке ответов по какому-либо заданию), продолжает увеличиваться, что свидетельствует о снижении общей функциональной грамотности экзаменуемых, а также о том, что при подготовке к экзамену уделяется недостаточное внимание ознакомлению учащихся с бланком ответов и правилам работы с ним» ([12,с.5]. Может ФИПИ стоит подумать о том, чтобы просто почистить бланк от мусора и разрядить клетки?

На протяжении почти всех 10 лет проведения экзамена верификация ответов осложнялась конструкцией КИМов. Закрытые вопросы, где ответ состоял из букв или их набора, проверялись с большим трудом. При распознавании текста машиной заглавная буква «А» путается с буквой «Д» и наоборот, ноль с буквой «О», 3 с буквой «З», 4 с буквой «Ч», 8 с буквой «В» и т.д. Если школьник пишет прописью (а значительная часть участников экзамена игнорирует требование писать заглавными печатными буквами), то машина путает буквы «б», «в», «д». Даже верификатор иной раз затрудняется сразу определить, какую букву проставил школьник. Нередки случаи, когда вместо номера альтернативы, учащийся пишет ее текст.

Рис.4 Верификация задания В6

На рисунке приведен процесс верификации задания, где школьник должен записать ответ символами кириллицы.[9] Здесь изображена чрезвычайно распространенная ошибка, когда вместе с кодом альтернативы пишется ее порядковый номер. В нашем примере для записи ответа использовались цифра 3 и буква «З». Внешне они неразличимы. Верификатор должен оставить только допустимые символы, поэтому 3 и «З» останутся. Верный ответ будет верифицирован как ошибочный. И это хорошо, если в условиях жесточайшего аврала оператор станет досконально разбираться во всех таких записях. В этом отношении интересно свидетельство ФИПИ: замена в вопросе В5 по обществознанию в 2011 году буквенного обозначения вариантов ответа на цифровое дало 20% рост его решаемости [10,с.7] [11,с.8]. Иными словами, низкий показатель был вызван не слабыми знаниями учащихся, а ошибками проверки. Справедливости ради отметим, что к 2012 году ФИПИ, наконец, сообразил заменить буквенные обозначения альтернатив ответов на цифровые, в том числе в КИМах других дисциплин.

И ладно, если ЕГЭ не может корректно соотнести уровень знаний выпускников лишь в отдельных случаях. Из-за ошибок измерений экзамен всегда изначально ставил учащихся в неравные условия на экзаменах, например, по иностранным языкам. Почему 2012 год ознаменовался «прорывом», когда средний тестовый балл по немецкому языку взлетел на 8 процентных пункта, в то время как по английскому вырос только на 0,3?[10] Причина – неравноценность заданий. Если посмотреть, где более всего отстают «немцы» от «англичан», то окажется, что это задание В2 базового уровня, перегруженное призовыми баллами (за его выполнение предусмотрено 7 баллов). Именно из-за сравнительной легкости и высоких баллов за выполнение задания В2 в КИМах по английскому и французскому языкам распределение результатов всегда было смещено вправо (типичный график распределения – 2011 год), чего нет в немецком языке, где задание В2 сложнее (см. рис. 5)[11], так как здесь по свидетельству специалистов из Санкт-Петербурга «тематика экзаменационных текстов и заданий зачастую не соответствует социально-личностному опыту выпускников средней школы» [16,с.58].

Рис.5 Распределение учащихся по тестовому баллу

в 2011 и 2012 годах (немецкий и английский языки)

Стоило лишь поправить задание В2 и произошло чудо, которое, судя по реакции ФИПИ, требовало неприятных объяснений. И поэтому ФИПИ предпочел не заметить его. В своем отчете он вскользь объяснил некоторые успехи «немцев» 10%-ым ростом выполнения задания С2, относящегося к разделу «Письмо» [12,с.10]. Между тем, из графиков ФИПИ (рис.6) следует, что основной вклад в повышение результата внес раздел «Чтение», к которому и относится задание В2. Именно здесь учащиеся со средней подготовкой (с первичным баллом от 20 до 60) более всего и набирали баллы.

Рис. 6. Графики ФИПИ «Зависимость общего первичного балла от

результата выполнения разных разделов экзамена (немецкий язык)»

Странно, что проверяя умения школьников читать информацию, представленную в различных знаковых схемах (график, таблица), ФИПИ не может прочесть графики в собственных отчетах. Видимо поэтому о происходящем ФИПИ никому не сказал. Неудивительно, что специалисты на местах делают неправильные выводы. Новосибирск считает, что «результаты ЕГЭ по немецкому языку в 2012 году немного лучше, чем в предыдущие годы. Это говорит о более серьезной подготовке и более осознанном выборе выпускников» [21,с.151]. Омск без анализа просто констатирует: «Уровень успеваемости (доля участников, преодолевших минимальный порог) снизился по всем предметам, только по немецкому языку процент выпускников, получивших минимальное количество баллов и более, вырос по сравнению с 2011 г. на 0,6 %» [28,с.5].

Технологию проверки работ невозможно рассматривать вне контекста ее организационных проблем. Острой проблемой экзамена практически на протяжении всего времени его проведения оставалась низкая дисциплина. Причем, говоря о дисциплине испытаний, как правило, подразумевают дисциплину школьников. О недоработках организаторов экзамена если сообщается, то очень немного, например, [22,с.16] [18,с.11-12]. Между тем организация экзамена является хорошим примером обычного российского бардака. Если взглянуть на работу региональных центров обработки информации (РЦОИ), можно обнаружить интересные вещи.

Одному из авторов статьи (С.К.) «посчастливилось» в течение двух лет работать в Омском региональном информационно-аналитическом центре системы образования (РИАЦ), выполняющего функции РЦОИ, участвовать в двух кампаниях по верификации школьных работ (в 2010 и 2011 годах), наблюдать организацию проведения экзамена изнутри. Что-то из увиденного является общими проблемами всех РЦОИ, что-то можно отнести к местной специфике.[12]

Главной особенностью функционирования РЦОИ является сезонный характер занятости. Работа здесь имеется только в период проведения экзамена (середина мая – июль, т.е. 3 месяца в году).[13] Причем в июне работы в РЦОИ становится запредельно много, что связано с необходимостью обработки экзаменационных материалов. Бланки ответов следует пропустить через сканер и программу распознавания и установить соответствие их содержания символам, распознанным машиной. Проверка и установление такого соответствия осуществляется вручную операторами станций верификации. Несмотря на кажущуюся простоту, верификация является довольно трудной работой. В течение трех недель без выходных по 8-10 часов, не отрываясь от экрана, операторам необходимо сверять каракули школьников с текстом, который распознала машина. Своих сотрудников в РЦОИ для этого, как правило, недостаточно, поэтому предполагается привлечение дополнительных работников по договору. На оплату верификации в регионы специально направляются деньги.

Проблему нехватки людей для верификации РЦОИ на местах, видимо, решают по-разному. В Омском РИАЦ, например, «под ружье» ставят всех: не только программистов, методистов, аналитиков, но и бухгалтеров, секретаря, рабочих типографии (в Омске учителя школьные работы больше не проверяют). Наиболее стойкие сотрудники в дополнение к дневным сменам работают и по ночам: т.е. где-то 14-16 часов в сутки. Отказ от привлечения людей со стороны объясняется стремлением освоить присылаемые Москвой деньги узким кругом штатных сотрудников или «своих» людей. Верификация превращается в «калым».

Введение Государственной итоговой аттестации обострило проблему своевременной проверки работ. Вместо того чтобы привлекать людей временно, Министерство образования Омской области пошло на увеличение штатов РИАЦ. В нем был создан отдел из шести человек, основной задачей которого стал сбор статистики по сфере образования (ранее этот функционал между делом выполнял всего один сотрудник). Решив проблему нехватки операторов, министерство еще более усугубило проблему занятости. Основным времяпрепровождением новых работников в межэкзаменационный период стали пустые посиделки, блуждания в интернете, компьютерные игры и просмотр видеофильмов. К слову сказать, Омский РИАЦ собрал на своем сервере огромную видеотеку, изучению которой и стали посвящаться усилия нового отдела.[14] Падение дисциплины отразилось и на верификации. Иные сотрудники, одновременно с проверкой работ, умудряются не то что музыку слушать (что запрещено инструкцией), сериалы смотреть.[15] Бывший руководитель Рособрнадзора В.Болотов, как-то посетовав на низкую дисциплину экзамена, предложил для ее поддержания привлекать армию. Что касается Омской области, то старшину впору ставить в кабинетах, где идет проверка работ.[16]

Насколько сказываются на качестве верификации недостатки ее организации, вероятно, не скажет никто. Однако согласно статистическим исследованиям, проведенным по заказу Министерства образования и науки РФ группой специалистов Московского института открытого образования под руководством И.Ященко, в 2011 году до 7% участников экзамена получили оценку, которая не соответствует их знаниям.[17] В этот показатель вошли все погрешности измерений, в том числе ошибки верификации.

Одним из главных недостатков организации экзамена в настоящее время является система подведения итогов: а именно, отсутствие их должного анализа. Материалы, посвященные «разбору полетов» в субъектах Федерации, как правило, строятся по схеме, применяемой ФИПИ: характеристика контрольно-измерительных материалов и контингента участников, сведения о выполнении различного рода задач, выводы и рекомендации по совершенствованию преподавания предмета. Солидные по объему, они почти одинаковы по содержанию. Значительную часть в них занимает пересказ нормативных документов. Более того, справки ФИПИ, например, местами дословно переписаны из отчетов прошлых лет. В строгом смысле некоторые работы трудно назвать аналитическими, т.к. носят они сугубо описательный характер. Большая часть содержащейся в них информации может быть представлена в табличной форме. Литературные дарования составителей в ряде случаев украшают эти документы, но не спасают положения. В них практически нет объяснений причин успехов и неудач школьников. Однако даже эта работа сопровождается систематическими ошибками и упущениями. Укажем на ряд из них на примере материалов ФИПИ, а также работ Московской, Мурманской, Новосибирской, Омской и Томской областей.

Рассмотрим сначала ошибки интерпретации результатов ЕГЭ.

1.Подведение итогов без учета особенностей состава участников и условий проведения испытаний. Довольно часто аналитики делают выводы о тенденциях в изменении уровня подготовки выпускников в отчетном году путем простого сопоставления результата с прошлогодним уровнем. Без учета особенностей состава участников и условий проведения испытаний делать это нельзя.

К сожалению, такой пример нам показывает ФИПИ. Так в 2006 году он приходит к заключению о повышении уровня математической подготовки школьников по сравнению с предшествующим годом [1,с.41], проигнорировав при этом увеличение доли школьников из крупных городов [1,с.16], где, по признанию ФИПИ, математическая подготовка всегда выше. Омские аналитики, определяя равнотрудность заданий, принялись вычислять разницу между средними величинами процентов верно выполненных «простого» и «сложного» вариантов, делая выводы о качестве КИМов на основе расхождений в уровне их выполнения. Однако, как выяснилось, так называемые «простые» варианты были распространенны среди более подготовленных городских школьников, а «сложные» — среди сравнительно слабых сельских [27,с.31]. Равнотрудность заданий и вариантов высчитывалась и в других регионах [22,с.31-33,90]. Однако есть подозрения, что эти сравнения проводились без учета особенностей контингента, т.к. местные специалисты данную проблему не поднимали вовсе.

Читайте также:  Как мучительно думать о счастье анализ

Длительное время распространенной ошибкой аналитиков было невнимание к изменениям условий проведения экзамена, напрямую определяющих результаты по обязательным предметам. В 2004-08 годах происходило массовое подключение к ЕГЭ новых регионов. Обязательность экзамена вела к расширению состава участников за счет нежелающих его сдавать. Чтобы побороть сопротивление нововведению на местах, организаторами было установлено правило «+1», гарантирующее выпускникам получение удовлетворительной отметки при неудовлетворительном результате. Однако это стимулировало не участие в испытаниях, а его имитацию. На экзамене школьники стали наобум рисовать крестики в бланке ответов и сдавать работы. И такая форма «выполнения» заданий год от года становилась все популярнее.

Размеры саботажа обязательных экзаменов в те годы поражают. Например, в 2007-08 годах доля школьников, выполняющих задания наугад по математике, составляла до 20% по стране. Поражает и другое – близорукость специалистов, не замечающих этот саботаж. Более того, ФИПИ в своих отчетах преднамеренно замалчивал проблему, пряча неприятные факты в обтекаемых формулировках: «При интерпретации результатов ЕГЭ следует иметь в виду, что значительный процент учащихся, показавших неудовлетворительный или невысокий уровни подготовки, частично объясняется отсутствием положительной мотивации на овладение курсом математики у слабо подготовленных выпускников, которым известно заранее, что при любом даже неудовлетворительном выполнении работы им обеспечена хотя бы минимальная положительная аттестационная отметка «3» или они не планируют поступать в вузы, где надо сдавать математику» [3,с.20].

«Холодным душем» стали, например, для омских руководителей результаты ЕГЭ в 2005 году. Область оказалась в десятке худших регионов страны по математике. Все понимали, что здесь что-то не так, но объяснить произошедшее не могли. Омский аналитический центр только сводил статистику и беспомощно разводил руками. Между тем основной причиной низких результатов являлась бездумная политика руководителей образованием разного уровня. С их подачи среди школьников была широко развернута успокоительная агитация: «Дети! Не волнуйтесь. Тройку на ЕГЭ вы получите в любом случае». Дети и не волновались…

Для того чтобы оценить масштабы халтуры приведем распределение учащихся по тестовому баллу в период с 2004 по 2007 год (рис.7), которое свидетельствует, что первые три года участия Омской области в ЕГЭ на экзаменах по математике просто «от фонаря» проставили крестики свыше трети выпускников — 34% (в 2007г. — 26%)! (Значения, соответствующие результативности гадания обведены кружком.) Обескуражено фиксируя низкие показатели, ни Омский аналитический центр, ни местное министерство образования об этом даже не догадывались.

Рис. 7. Распределение омских учащихся по тестовому баллу (математика)

К слепому гаданию выпускники школ прибегали, как правило, только на обязательных экзаменах. Его следы мы найдем и в русском языке. Так в распределении учащихся по русскому языку наблюдается левосторонний подъем линии графика, что особенно хорошо видно на примере 2008 года, т.е. до отмены правила «+1» (рис.1). Масштабы саботажа здесь также поддаются оценке. Для этого можно воспользоваться следующим приемом: при подсчете первичного балла следует уменьшить количество вопросов части А до 10, как это было в математике.[18] Таким образом мы получили, например, графики распределения омских выпускников (свыше 11 тыс. человек ) по первичным баллам за всю работу (нормальное распределение) и по сумме баллов за части В и С и любых 10 заданий части А (бимодальное распределение). Второй из них показывает, что в 2008 году около 15% омских школьников, не мудрствуя, в части А отмечали варианты ответов наобум (рис.8). Аналогичные результаты, правда, в несколько меньших масштабах обнаружились и при исследовании результатов 2009 года. В 2010-11 годах из-за отмены правила «+1» саботаж экзамена по русскому языку в омских школах сошел на нет.

Рис.8. Распределение омских учащихся по первичному баллу

Игнорировали условия проведения экзамена не только в Омске. Исследователи из Мурманска в 2008 году наблюдали резкий спад результатов по математике, объясняя его ухудшением подготовки,[19] в 2009 году – столь же резкий подъем, вызванный ее улучшением.[20] Чем были вызваны эти колебания, объяснить они не смогли.

Аналитики Московской области в 2008 году приводят таблицу зависимости тестового балла от количества часов в неделю изучения математики, из которой следует, что разница в успехах учащихся обучающихся 4 часа (гуманитарный класс), 5 часов (общеобразовательный класс) и 6 часов (профильный класс) невелика. Далее следует вывод: «Это говорит как о примерном равенстве контингента учащихся разных классов, так и о том, что многие учителя при большем числе учебных часов не столько расширяют и углубляют знания учащихся, сколько решают большее число однотипных заданий. Однако отработка навыков не дает должного эффекта». О том, что расширение состава участников, обязательность экзамена и правило «+1» стимулировали его саботаж специалисты, видимо, не подозревают. А ведь именно он и вел к нивелировке тестового балла у изучаемых групп [13,с.28].

В 2009 году в поисках причин общих успехов специалисты Московской области последовательно перебирают и сравнивают с прошлогодними результаты выполнения отдельных заданий. Не найдя существенных изменений в редакции КИМов, они делают выводы об улучшении уровня подготовки, верно заметив при этом, что рост показателей произошел в заданиях с выбором ответа [14,с.20-23]. Задания с кратким ответом остались в минусе. Поэтому последовало следующее заключение: «Так как содержание заданий ЕГЭ-2009 не претерпело существенных изменений по сравнению с прошлым годом, трудно оценить прогресс или регресс знаний учащихся по всей школьной программе» [14,с.24]. Проигнорировав изменения условий испытаний, исследователи зашли в тупик. Отмена гарантированной тройки снизила формальное участие школьников и гадание в части А, вызвав рост ее решаемости. А так как в части В гадать было невозможно, там показатели ухудшились. Поэтому вывод по Московской области должен бы быть другим: в 2009 году работа по математике выполнена хуже, чем в 2008-м.

На эти же грабли наступают в Новосибирске. Здесь так объясняют повышенные результаты в 2009 году: «В то же время существенное увеличение среднего балла по математике (на 22%) является следствием интенсификации процесса подготовки выпускников к ЕГЭ. При этом важно понимать, что в этот процесс включаются не только школьные учителя, но и подготовительные курсы вузов, репетиторы и пр. Немаловажную роль в получении такого прироста в величине среднего балла сыграли и штатный режим экзамена, и принятие педагогической общественностью его обязательности» [18,с.18-19]. О том, что из-за отмены правила «+1» школьники просто перестали гадать, аналитикам в голову не пришло. Далее они по той же причине делают еще одну ошибку, объясняя повышение коэффициента корреляции результатов ЕГЭ и школьных оценок в 2009 году возросшей адекватностью оценивания учителем предметных достижений обучающихся [18,с.30].

Ошибки в оценке ситуации на местах отчасти лежат на совести ФИПИ, ибо саботаж экзамена он замалчивал. Графики 2004–2009 гг., опубликованные в отчетах института, содержат несложную уловку. Они выполнены в виде гистограмм, где значения, соответствующие угадыванию ответов, спрятаны в суммах интервалов шкалы и не бросаются в глаза, а потому не комментируются. В 2009 году повышение результата по математике ФИПИ, например, объясняет усиленной подготовкой, скрывая факт формального участия школьников на ЕГЭ-2008: «Наблюдаемая тенденция некоторого повышения уровня математической подготовки выпускников средней школы в 2009 году обусловлена в значительной степени тем, что они были мотивированы на продуктивную подготовку к выпускному экзамену в связи с отменой правила «+1» при оценке выполнения вариантов КИМ»[4,с.69].

2. Сопоставление средних баллов по дисциплинам с общероссийскими показателями. Пожалуй, самой распространенной ошибкой являются сопоставления региональных результатов с общероссийскими показателями. Такие сопоставления с учетом определенных оговорок можно делать только по обязательным предметам. В дисциплинах по выбору необходимо обращать внимание на состав участников, т.к. он может не отражать действительного состава школьников всей страны. Например, в 51 регионе число учащихся, сдающих французский язык в 2012 году, было менее 10 чел. Контингент участников ЕГЭ по французскому языку наполовину состоит из выпускников школ Москвы, Московской области и Санкт-Петербурга, которые в значительной мере и формируют этот якобы «общероссийский» балл. Сравнение тут идет не со «среднероссийским», а со «среднестоличным» уровнем. И если ли смысл высчитывать региональный балл, если участников можно пересчитать по пальцам?

При сравнении баллов по обязательным предметам необходимо учитывать особенности социального развития территорий, в частности их урбанизации, поскольку в регионах с повышенной долей городского населения показатели объективно будут лучше. Видимо, межрегиональные сопоставления корректны среди территорий со сходными социально-экономическими условиями функционирования образовательных учреждений: например, на уровне федеральных округов, статистику результатов которых ФИПИ, к сожалению, не публикует.

3.Сопоставление среднего балла по дисциплинам. Простыми и наглядными, казалось бы, выглядят сравнения средних баллов по разным дисциплинам. Сами собой напрашиваются выводы о том, по какому предмету школьники лучше учатся. Так составители одного из отчетов пишут: «Представляется, что в целом по сравнению с результатами, продемонстрированными при сдаче других экзаменов, результаты по обществознанию выглядят достаточно неплохо, если учесть, что для данного экзамена был установлен наиболее высокий минимальный балл» [22,с.186].

Между тем представляется некорректным проводить сопоставление средних тестовых баллов по различным дисциплинам, т.к. на итоги экзамена самым непосредственным образом влияет содержание, количество, характер и сложность заданий, которые при межпредметных сравнениях невозможно соотнести. Факт того, что средний балл по русскому языку, например, составил 57, а по математике 44 вовсе не означает, что русский язык школьники знают лучше. Один только формат КИМов по русскому языку дает ощутимую фору его участникам перед школьниками, вынужденными записывать краткий ответ, как это принято в математике. В контрольно-измерительных материалах по русскому превалируют задания, позволяющие угадывать ответы, что и сказывается повышением общего результата. В экзаменах по выбору к тому же имеются значительные отличия в составе участников, поэтому средний балл здесь показывает уровень подготовки только его участников.

О том, что межпредметные сопоставления результатов некорректны, соглашаются и специалисты ФИПИ: «…на результаты ЕГЭ могут влиять различные факторы: состав участников, особенности КИМ, организационные особенности проведения экзамена и др. В этой связи нельзя однозначно сравнивать результаты по разным предметам, даже тестовые баллы, полученные по обязательным предметам и предметам по выбору» [4,с.11].

Ошибки содержательного анализа результатов испытаний

1.Аналитики не обращают внимания на тот факт, что под одинаковыми кодами содержатся задания разных типов [27][22,с.192]. Широко распространенной ошибкой в течение первых пяти лет проведения экзамена было представление о том, что КИМы имеют одинаковую структуру. На самом деле первоначально КИМы создавались на основе нескольких планов, являвшихся модификацией общего плана, обозначенного спецификацией. Под одним кодом в разных вариантах скрывались задания разных типов.[21] О том, что такое возможно, организаторы не афишировали. Но после того как на местах стали сводить несводимое, с 2007 года в спецификациях стали появляться предупреждения: « Порядок следования заданий в КИМ может быть изменен в разных вариантах». По мере накопления банка заданий составители стали отказываться от практики перестановки заданий внутри работы. По крайней мере, к 2010 году предупреждающее извещение осталось только в спецификациях по обществознанию, химии и информатике. К 2012 году оно сохранилось только в обществознании. Трудно сказать, насколько эта практика оказалась действенной в предотвращении списывания или обмена результатами во время испытаний.[22] Однако она изначально ставила жирный крест на всех попытках содержательного анализа ЕГЭ на местах. Без приведения к единому порядку следования заданий во всех вариантах статистика результатов по типам задач представляла собой настоящую «кашу». Именно эту «кашу» и выкладывали РЦОИ в свои статистические сборники (так, в частности, было в Омске). Приводя статистику выполнения заданий, аналитики порой диву даются разбросу их решаемости [15,с.7-8] [22,с.32,192], в то время как необходимо было просто посмотреть на тексты самих заданий. Многие вопросы отпали бы сами собой.

2.Аналитики не учитывают, что содержание или конструкция заданий иногда не соответствует спецификации [13,с.49][15,с.48][22,с.191]. Хорошим примером этой ошибки является задание В1 по обществознанию, проверяемый элемент содержания которого обозначен следующим образом: «Различное содержание в разных вариантах: выявление структурных элементов с помощью схем и таблиц». Здесь, согласно спецификации, процент выполнения демонстрирует уровень умений выявлять структурные элементы с помощью таблиц и схем, но не знаний в какой либо области курса, т.к. задание построено на материале из различных его разделов. Задание выглядит следующим образом.[23]

Совершенно очевидно, что если знать ответ, записать его не составляет труда не зависимо от того, схема ли это или таблица. Вот что действительно определяет успешность этой работы так это форма записи ответа. Отсутствие готовых альтернатив и элементов подсказки, присущих закрытым вопросам, ведет к снижению результата. Именно открытый характер вопроса, несмотря на то, что он относится к базовому уровню сложности, приводит к самым низким показателям. Так в целом по стране в 2010 году с заданием справились только 51,2% участников. Лишь с заданиями части С, а также В5 и В6, представляющих собой вопросы с выбором множественных альтернатив, школьники справляются хуже [5,с.21]. А поскольку форма записи ответа определяет успешность выполнения задания В1 было бы ошибкой не только выдавать результат за оценку умения работать с информацией, представленной в различных знаковых системах (схема, таблица), но даже высчитывать среднее значение, ибо оно построено на материале из разных разделов курса. Средний балл и процент выполнения задания В1 вообще лишены какого-либо содержательного смысла. Поэтому ошибочными являются выводы, например, отчета по Московской области: «Как показывает анализ результатов ЕГЭ по обществознанию – выпускники слабо владеют умениями … анализировать и классифицировать социальную информацию представленную в различных знаковых системах, в том числе статистическую или графическую (напр. тексте, схеме, таблице, диаграмме)… Это особенно наглядно проявилось при выполнении заданий … В1» [15,с.53].

О том, что КИМы могут не соответствовать спецификации, косвенно признаются и специалисты ФИПИ: «Задания, предполагающие умения классифицировать понятия, явления, социальные объекты путем установления соответствия терминов и их определений, понятий и их признаков, выпускники выполнили в этом году менее успешно, чем в предыдущие годы (25%-50%). Возможно, это связано, прежде всего, с тем, что задания этого типа были построены на новом содержании (выделено нами. – Авт.), которое оказалось сложным для усвоения (организационно-правовые формы предпринимательства)»[5,с.18]. Иными словами, классифицировать школьники стали хуже не из-за снижения умений классифицировать, а из-за смены материала классификации. Но по спецификации оцениваются умения.

3.Игнорирование формы вопроса [23,с.80,82] [22,с.192]. Как-то неловко говорить банальности о том, что результативность выполнения задания в значительной мере зависит от формы записи ответа. Между тем зачастую без комментариев, беззубо и беспомощно аналитические отчеты, в том числе ФИПИ, фиксируют факты успешного решения задания повышенного уровня в сравнении с базовым. Так, например, ФИПИ в отчете по обществознанию сообщает: «В отдельных случаях результат выполнения заданий базового уровня с кратким ответом ниже , чем результат выполнения заданий повышенного уровня с выбором ответа (выделено нами. – Авт.). Так, задание В2 второй части работы по теме «Системное строение общества: элементы и подсистемы» (средний процент выполнения 35%) выполнялось правильно почти в два раза реже, чем задание повышенного уровня А3 (средний процент выполнения 58%)» [5,с.7]. При этом работники ФИПИ не объясняют полученный результат. А ведь причина очень проста. Открытые вопросы всегда представляют наибольшую трудность, т.к. не содержат подсказки.

Примеры влияния формы записи ответа на результат можно найти повсюду. В региональных отчетах и отчетах ФИПИ часто приводятся графики выполнения заданий по типам заданий среди участников с различным уровнем подготовки. Решаемость заданий среди слабых школьников в закрытых вопросах никогда не опускаются ниже 10-15%. Теоретически минимальный уровень у данной категории не должен составлять ниже 25%, но этот результат получается только при слепом гадании. На практике альтернативы-провокации снижают его ниже вероятностной отметки. Показательным примером является тот факт, что в сравнении с другими заданиями задачу А23 по физике в 2010 году менее всех остальных провалили именно двоечники (рис.9, задание отмечено стрелкой). Почему? Просто провалить его ниже уже нельзя: форма записи ответа не позволяет это сделать.

Приведем еще один пример. Если сравнивать разницу решаемости заданий базового и повышенного уровня по разделам «Человек и общество» (А5 и А3), «Познание и духовная жизнь» (А4 и А6), «Социальные отношения» (А14 и А15), «Политика (А18 и А19), «Право» (А23 и А24) в курсе обществознания, то выяснится что минимальные ее значения наблюдаются среди представителей самой слабой и самой сильной группы участников (см. табл.1). И если в сильной группе это является свидетельством способности справиться с заданиями разной сложности, то в слабой – равной вероятности угадать верный ответ любого вопроса с 4 альтернативами. Только этим можно объяснить тот курьезный факт, что по разделу «Познание и духовная жизнь» слабые школьники «выполнили» задание повышенного уровня сложности (А6) лучше, чем базового (А4) [5,с.21].

Решаемость заданий базового и повышенного уровня (2010 год)

источник