Перейти к основному содержанию

Почему Минобрнауки бойкотирует реформирование системы оценки научных результатов

круговорот публикаций
© pixabay.com

За последние десять лет российские учёные поставили рекорд по количеству публикаций на страницах мировых научных журналов. В 2,9 раза больше стало в стране университетов и исследовательских организаций, имеющих в своём портфолио более тысячи подобных статей. При наличии прямого трансфера публикационной активности в улучшение ситуации в экономике и обществе Россия далеко опередила бы в развитии Сингапур.

К сожалению, такая зависимость не прослеживается. Тем не менее, Минобрнауки продолжает требовать от университетов очередного вала научных статей. Несмотря на явное недовольство вузовской общественности, главными критериями успешности в науке в рамках программы «Приоритет-2030» будут всё те же стандартные подходы: количество публикаций в изданиях, индексируемых международными интернет-платформами Web of Science и Scopus и уровень цитирования этих статей другими учёными. О том, чтобы дополнить систему менее шаблонными методами оценки речь не идёт.

Острую тему не обошли на разъяснительном вебинаре по наукометрии для участников «Приоритета-2030». Спикер мероприятия, заведующий наукометрической лабораторией Уральского федерального университета Марк Акоев, предвидя возможные вопросы, упомянул альтернативные подходы.

Первый из них состоит в том, чтобы формировать списки журналов на основе оценки экспертов, не полагаясь целиком на авторитет Web of Science и Scopus, ранжирующих издания по четырём квартилям в зависимости от уровня престижности и популярности. Эти платформы управляются частными компаниями, которые вряд ли могут полностью абстрагироваться от коммерческого интереса в вопросах ранжирования. К тому же одна из них, Scopus, принадлежит непосредственно заинтересованной стороне - одному из крупнейших издательских домов мира, специализирующихся на научной периодике.

Missing материал.

Акоев назвал и ещё более смелый метод – введение экспертной оценки научных результатов, без привязки к публикационной активности. Хотя радикальным он выглядит только в России. Многие развитые в научном отношении страны давно и широко прибегают к экспертной оценке наряду с наукометрией. Но об этом чуть позже.

Оба альтернативных метода были помечены в презентации Акоева как перспективные, и вот что он сказал о возможностях их применения: «Два важных момента, которые мы должны держать в голове как потенциально возможные варианты, которые на протяжении предыдущего года обсуждались, и в какой-то момент они могут стать реальностью. Последний пункт – экспертная оценка научных результатов – это магистральное направление, к которому, скорее всего, мы придём через какое-то время, но для этого мы должны кратно увеличить объём публикаций, чтобы было что оценивать».

Позиция главного спикера вебинара, организованного под эгидой Минобрнауки, вряд ли расходится с официальным министерским видением. То есть там собираются стимулировать очередной бум публикаций ради галочки как переходный этап к более взвешенной системе оценки научных результатов? Когда же они займутся усовершенствованием системы? После 2030 года?

Существующая методика оценки научного труда практически не меняется уже девять лет. С тех пор, как был утверждён примерный перечень критериев эффективности деятельности вузов. Его основа – количество публикаций и цитирований по данным Web of Science и Scopus, а также доходы от НИОКР. Всё это переносится из одной государственной программы в другую. Несмотря на изменение мирового контекста, связанное, например, с введением антироссийских санкций.

По сути, Россию исключили из числа стран, с которыми возможен равноправный обмен и цивилизованная конкуренция. Другими словами, санкции развязывают руки для дискриминации, в том числе и в научной сфере. К счастью Запад не однороден. Существуют отдельные глобальные институты, такие как ЮНЕСКО, на базе которых можно было бы собрать новые более независимые экспертные клубы.

Ректор Санкт-Петербургского горного университета, на базе которого работает центр компетенций в горнотехническом образовании под эгидой ЮНЕСКО, выходил с соответствующим предложением в октябре прошлого года на международных онлайн-консультациях по проблемам открытой науки.

Литвиненко
© Форпост Северо-Запад

«Сложившаяся система публикаций консервативна, и поменять ее сложно. Но возможность создать достойную альтернативу есть у ЮНЕСКО. Организация провозгласила 17 целей устойчивого развития. Создана сеть Центров компетенций, обладающих передовым опытом в достижении этих целей по конкретным направлениям. Вокруг Центров формируются профессиональные сообщества людей, знакомых с передовыми научными достижениями в своих областях.

Мы, например, на своих мероприятиях горно-технического профиля, таких как Российско-Британский сырьевой диалог или Российско-Германский сырьевой форум, собираем лучших экспертов – представителей крупнейших компаний минерально-сырьевого комплекса, людей, возглавлявших энергетические ведомства в правительствах ведущих государств.

Став «точкой сборки» авторитетных профессиональных сообществ, Центры компетенций могли бы служить площадкой для создания собственных издательств от имени ЮНЕСКО, отдельно по каждому из направлений устойчивого развития» - предложил Владимир Литвиненко.

Сообществам экспертов можно было бы предоставить право голоса и на российском уровне, но, вероятно, Минобрнауки комфортно работается в прямой связке с каждым отдельным университетом. Без сдержек и противовесов, которые мог бы создать наделённый реальными полномочиями институт самоконтроля университетского сообщества.

От координаторов научной отрасли не требуется изобретать велосипед. Путь уже проторен. Достаточно обратиться, например, к опыту Великобритании. Там существует система оценки эффективности науки, базирующаяся в основном на экспертном рецензировании, но учитывающая при этом и наукометрические показатели. На государственном уровне созданы 4 комиссии (по предметным блокам) и 36 подкомиссий по отдельным научным дисциплинам. Их состав определяется на основе открытого и широко освещаемого конкурса. К участию в них привлекаются исключительно люди непосредственно связанные с наукой.

Британская методика учитывает как значимость продукта исследовательской деятельности (статьи, монографии, изобретения), так и его воздействие на экономику, культуру или общественные отношения. Интересно, что с 1996 года университеты для анализа предоставляют комиссиям лишь несколько наиболее выдающихся публикаций. Подсчёт общего количества статей не ведётся и не принимается в качестве критерия успеха, чтобы избежать так называемой публикационной инфляции, то есть погони за количеством в ущерб качеству.

Очевидно, что британцы хорошо усвоили закономерность, выведенную их соотечественником экономистом Чарльзом Гудхартом ещё в 1975 году. Она гласит, что количественный показатель, ставший формальным индикатором для оценки эффективности работы какой-либо системы, перестаёт демонстрировать прежние эмпирические закономерности. Объект контроля всегда находит простейший способ вписаться в заданные параметры. В том числе и вопреки здравому смыслу и конечной цели своей деятельности.