Индекс цитирования ученого: важнейший ли это критерий качества его научной деятельности?

Проблема оценки качества деятельности отдельного ученого и научных коллективов берет свои истоки с момента зарождения самой науки как таковой и во все времена так или иначе являлась одной из актуальнейших и в то же время труднейших проблем.

О.В. Михайлов

Проблема оценки качества деятельности отдельного ученого и научных коллективов берет свои истоки с момента зарождения самой науки как таковой и во все времена так или иначе являлась одной из актуальнейших и в то же время труднейших проблем, касающихся взаимоотношений как внутри самой науки, так и с обществом. Возможны различные варианты оценки любого вида творческой деятельности; однако во всех сферах ее – и в науке тоже – наиболее объективной является все-таки оценка по конечному результату, а не по процедуре его достижения и затраченным на это усилиям. В идеале методология объективной оценки качества научной деятельности, как мне представляется, должна чем-то напоминать процедуру выявления победителей в спортивных соревнованиях, когда лучших определяют, ориентируясь на те или иные достигнутые спортсменами количественные показатели (время пробега на соответствующей дистанции, дальность броска копья и т.д.). Однако вплоть до начала XX в., когда занятие наукой было уделом весьма небольшого круга людей, шедших в нее прежде всего по призванию и, по существу, из альтруистических соображений, весомость вклада ученого оценивалась научным сообществом фактически лишь по содержательным качественным критериям. Механизм такой оценки был неизвестен и не поддавался количественному описанию, но интуитивно все признавали, что личный вклад Гаусса или Чебышева в математику, Эйнштейна или Ландау в физику, Дэви или Менделеева в химию, Менделя или Вавилова в биологию превосходит таковой от большинства отдельно взятых исследователей в соответствующей отрасли науки. В последние десятилетия, когда занятие наукой стало достаточно массовым явлением одни качественные критерии оценки научной деятельности представляются уже недостаточными и все более настоятельным требованием времени становится необходимость оценки с использованием количественных параметров, характеризующих научную деятельность и – главное- не зависящих от каких-либо субъективных факторов. Особую важность приобретает подобная объективная оценка, когда речь идет о тех или иных «знаках отличия» отдельного ученого или научного коллектива – финансировании научных исследований в виде грантовой поддержки или поощрении отдельных исследователей в виде присуждения им премий, медалей, ученых степеней и званий. Однако на данном этапе у научного сообщества, по существу, вообще нет никаких объективных количественных критериев оценки качества научной деятельности, и применительно к конкретному исследователю она носит исключительно субъективный характер – в виде волевых решений, голосований на ученых советах и в других аналогичных формах. В современной России подобная методология нужна как воздух еще и потому, что во-первых, ученые титулы и звания нередко являются приложением к имиджу того или иного чиновника, зачастую никакого отношения к науке, не имеющего, а во-вторых – и это главное- весьма часто вышеуказанные отличительные признаки ученого на фоне других его коллег присуждаются отнюдь не за совокупность реальных научных достижений, а благодаря тому, что в русском языке называется кратким, но емким словом «блат» (синонимы: «связи», «поддержка» и др.).

В поисках критериев подобной оценки в западной наукометрии в последние 10-15 лет появился термин «индекс цитируемости ученого» [1–8]. Фактически это не что иное, как число ссылок на все работы данного исследователя, которые он выполнил в соответствующей отрасли научной деятельности за какой-то конкретный период. Этот показатель научной деятельности приобрел весьма широкую популярность, в частности, был решающим (во всяком случае, официально) для определения лауреатов конкурсов International Soros Science Education Program в номинациях «Соросовский профессор» и «Соросовский доцент». Более того, организаторы данных конкурсов пошли еще дальше – если в западной печати принимается во внимание суммарный индекс цитирования, в котором суммируются ссылки, сделанные на работы конкретного исследователя как другими авторами, так и самим исследователем (так называемое самоцитирование), то здесь учитывался лишь индекс его цитирования за минусом самоцитирования и даже цитирования его теми, кто в разное время был соавтором самого этого исследователя. Насколько реально отражает заслуги отдельно взятого исследователя подобный «очищенный» личный индекс цитирования – этот вопрос требует отдельного обсуждения, и далее мы еще поговорим об этом. Но вот сам подход к оценке качества научной деятельности, где индекс цитирования ученого -неважно, с самоцитированием или без оного – рассматривается как главный критерий оценки качества научной деятельности, представляется мне не то что весьма спорным, но и очень опасным, грозящим вообще похоронить всякую объективность и свести дело к поддержке лишь каких-то отдельных кланов исследователей (что, кстати, в рамках вышеуказанных конкурсов в последние годы нередко и наблюдается). О соображениях, приведших меня к столь неутешительному выводу, – и это несмотря на многочисленные восторженные отклики наших ведущих ученых в отношении эффективности подобного критерия, – мне и хотелось бы поведать далее.

Пожалуй, наилучший способ поразмыслить о той или иной методологии – вне зависимости от того, верите ли вы в ее возможности или нет – это постараться задать себе, равно как и ее сторонникам, ряд щекотливых, но вполне доброжелательных вопросов, пусть даже и с налетом скепсиса, которые помогут до конца продумать логические последствия ее принципов. Вот лишь некоторые из них.

Как быть с тем обстоятельством, что фактически в любой отрасли науки сосуществуют как открытые исследования, содержание которых доступно неопределенному количеству лиц, так и ограниченные по степени информационного доступа исследования с тем или иным грифом секретности? Наверное, ни для кого не секрет, что ученые, работающие даже по тематикам с грифом «для служебного пользования» (не говоря уже о засекреченных) если и цитируются вообще, то крайне незначительно по сравнению с учеными, работающими по открытым тематикам; более того, нередко в открытой печати невозможно найти даже сами фамилии таких исследователей. О С.П. Королеве, И.В. Курчатове и А.Д. Сахарове, имена которых золотыми буквами навсегда вписаны в историю российской и мировой науки, широкая научная общественность услышала лишь после того, как эти ученые либо сами фактически отошли от дел (Курчатов, Королев), либо были изгнаны властями из соответствующей «закрытой» отрасли науки и встали в открытую оппозицию им (Сахаров). Однако нет ни малейших сомнений в том, что индекс цитирования любого из них если не равен нулю, то вряд ли сильно от него отличается.

Насколько правомерно рассматривать цитирование конкретной работы как ту или иную степень ее востребованности? К примеру, мне неоднократно приходилось получать запросы от различных не знакомых со мной лично зарубежных исследователей с просьбой выслать оттиски моих опубликованных работ. Нет сомнения, что подобные просьбы – это не жест вежливости к совершенно незнакомому человеку (с таковыми без особой нужды обращаться не будут) и что эти работы действительно были нужны запрашивавшим их исследователям на каком-то этапе их научной деятельности. Как правило, я выполнял их, но вот ведь парадокс: ссылок именно тех исследователей на те самые мои публикации, которые я им отсылал, я до сих пор не встречал ни разу, тогда как неоднократно сталкивался со ссылками на мои работы тех, кто с подобными просьбами ко мне никогда не обращался. Этот факт, я полагаю, является красноречивым доказательством тому, что востребованность и цитирование – вещи разные. Полагаю, что аналогичными свидетельствами могли бы поделиться и большинство других исследователей в самых разных отраслях научного знания. В этой связи полезно напомнить, что ссылки на чужие работы далеко не всегда означают, что исследователь, процитировавший ту или иную работу своего коллеги, детально ознакомился с ней или вообще хотя бы видел ее в глаза. Сам факт цитирования какой-либо публикации – пусть даже и многократного – чаще всего означает лишь признание ее существования и то, что она как-то связана с той или иной научной тематикой, и не более того. Во всяком случае, о значимости конкретной публикации для развития данной тематики этот факт еще ничего не говорит.

Каким образом следует учитывать то обстоятельство, что нередко необъективно возвеличиваются заслуги, а то и приоритет одного исследователя в ущерб другому по ряду соображений, к науке никакого отношения не имеющих (личностных, традиционалистских, националистических, политических и пр. )? В некоторых странах до сих продолжают принижать роль и приоритет Д.И. Менделеева как творца периодической системы химических элементов, выдвигая на авансцену француза Де Шанкуртуа, немца Л.Ю. Мейера или англичан Ньюлендса и Одлинга. С другой стороны, встречается и иная крайность – выдающемуся энциклопедисту XVIII в. М.В. Ломоносову иные историки науки подчас приписывают едва ли не все великие открытия его времени. В обоих этих случаях, как видно, сказались выраженные престижно-националистические амбиции. Явление комбинационного рассеяния света получило название «рамановской спектроскопии» по имени индийского физика Р.В. Рамана, хотя любому непредвзятому историку науки должно быть очевидно, что лавры первооткрывателя он как минимум должен бы разделить с нашими соотечественниками Л.И. Мандельштамом, Г.С. Ландсбергом и Н.Д. Папалекси. Тут уж в дело вмешалась политика. Естественно, это сказалось (да и не могло не сказаться) на индексах цитирования упомянутых исследователей: работы советских физиков в указанной области по сути дела преданы забвению, а на публикации Рамана ссылались и продолжают ссылаться до сих пор. Не секрет и то, что мы сами цитируем работы наших же российских авторов гораздо реже, чем американцы – работы американцев, французы – работы французов, японцы – работы японцев. Нельзя в этой связи не упомянуть и просто трагичную ситуацию, когда опять-таки наш соотечественник, впервые наблюдавший периодическую химическую реакцию, – Белоусов не смог опубликовать ни в одном химическом журнале даже одну статью по изучению подобных реакций, и не потому, что не умел или не любил писать, а потому, что все они были отвергнуты рецензентами с комментариями типа «этого не может быть, потому что не может быть никогда». Правда, одна такая его статья увидела-таки свет в ведомственном «Сборнике рефератов по радиационной медицине», но вот химики в основной своей массе ее прочесть не смогли, хотя бы потому, что никогда не держали в руках подобного сборника. Раз так, то ни о каком цитировании ее и речи идти не могло, – Белоусов за рубежом, да и в нашей стране остался фактически безвестным...

Как быть с числом авторов в цитируемых работах? Как известно, ученый ныне редко работает в одиночестве -он входит в состав той или иной исследовательской группы и довольно часто в свет выходят его статьи, где наряду с ним фигурирует довольно много соавторов. И если на подобную статью ссылаются, значит ли это, что каждый автор вправе считать, что ссылаются на его труд? Или же следует вносить каждую такую ссылку в зачет только первого автора? Или в зачет того, кто внес наибольший вклад в эту работу или фактически создал ее (пусть даже он и стоит в списке авторов отнюдь не на первой позиции)? Или выделить долю конкретного автора в этой ссылке по чисто альтруистическим соображениям, исходя из числа соавторов (1/2, 1/3 и т.д.)?

Следует ли принимать во внимание самоцитирование и считать ли его вкладом в общую цитируемость той или иной работы, и если да, то в какой степени – на равных правах с цитированием другими авторами или же нет? Известно, что данные Института научной информации США (ISI) вообще-то включают самоцитирование, т.е. цитирование ученым своих собственных более ранних опубликованных работ. Стремление ученого сослаться при необходимости на свои предшествующие исследования, если по ходу статьи это представляется необходимым, вполне естественно. До определенной степени самоцитирование представляется оправданным, так как весьма часто данная конкретная публикация ученого является продолжением его прежних работ. Если же окажется так, что исследователь работает над такими проблемами, которыми в настоящее время никто, кроме него самого, в мире не занимается, необходимость в самоцитировании становится еще большей, а подчас и просто вынужденной. Более того, в последнем случае вполне вероятно, что, независимо от реальной значимости работ этого исследователя для фундаментальной и прикладной науки на его своим оригинальное исследование другие ссылаются значительно реже, чем он сам. Наука в настоящее время настолько сильно дифференцировалась, что значительная часть исследователей мало интересуется чем-то хоть немного выходящим за рамки той узкой ее отрасли, в которой они работают, и на не имеющих к ним прямого отношения «чужаков» ссылаться не станет.

Нужно ли принимать во внимание уровень авторитетности того издания, в котором дана та или иная ссылка? Как нетрудно заметить, если на одну и ту же работу по одному разу ссылаются в таких суперавторитетных изданиях, как «Nature» или «Science», в куда менее известном «Журнале экспериментальной и теоретической физики» и в фактически безвестном вестнике какого-либо вуза или института, то с чисто формальной стороны это будет всегда три ссылки независимо от того, где на эту работу сослались. Но вот можно ли считать их эквивалентными друг другу или все-таки ссылка в «Nature» или «Science» значимее ссылки в каком-либо местном сборнике научных трудов того или другого института? И если нет, то как их дифференцировать?

Что важнее: сами по себе опубликованные работы исследователя, научного коллектива (причем независимо от того, в каких изданиях они опубликованы) или их востребованность другими исследователями? И вообще, можно ли считать справедливым сам тезис, что цитируемость или даже востребованность работ ученого является критерием их научной ценности? Классическим примером здесь может служить первоначальное негативное отношение математиков (да и не только их) к работам Н.И. Лобачевского по неэвклидовой геометрии, которую они восприняли едва ли не в штыки, и ни о какой востребованности их и речи быть не могло. Прозрение пришло к ним лишь через 12 лет после смерти великого русского геометра, когда итальянский математик Бельтрами опубликовал мемуар «Опыт интерпретации неэвклидовой геометрии». Атомистические воззрения древнегреческого философа Демокрита, как известно, оставались невостребованными вплоть до начала XX в. Бывали и обратные случаи – работы К. Птолемея по геоцентрической системе мира в течение нескольких столетий служили теоретической базой астрономии, но после появления системы мира Н. Коперника практически полностью потеряли свое значение; труды Т.Д. Лысенко в 1940-х и начале 1950-х гг. в СССР рассматривались как едва ли не высшее достижение биологической мысли и их цитировали по поводу и без такового, а начиная с конца 1950-х – как разновидность шарлатанства от науки и стали никому не нужным хламом.

Нужно ли принимать во внимание категорию цитируемой работы, ее объем? Скажем, один исследователь за какое-то время получил 10 ссылок на одну свою монографию, другой за тот же самый период – 10 ссылок на 5 различных статей, третий – 10 ссылок на 10 различных тезисов докладов. Кому из них должно быть отдано предпочтение по части цитируемости или же они оказываются по этому показателю в абсолютно равном положении?

Можно ли вообще считать объективным такой показатель научной деятельности, на который сам ученый фактически не может оказать никакого влияния? Дело в том, что количество ссылок на работы любого исследователя, как нетрудно заметить, фактически никак не зависит ни от его научной активности, ни от общего числа его работ, ни от их объема, ни от тех изданий, где они опубликованы, ни от реальной их значимости для той или иной отрасли науки!! И если исследователь будет действовать совершенно честно, ничего изменить на этом поприще он не в состоянии, и приходится лишь фаталистически уповать на то, что кто-то другой заметит тот или иной его труд и процитирует его. А вот если нечестно – будет иметь немало возможностей фиктивного увеличения данного показателя. Можно, например, попросить своего знакомого коллегу сослаться на ваши публикации в той или иной статье (в обмен на аналогичную любезность с вашей стороны). Предвижу возражения – как можно, никому в голову такое не придет. За рубежом, где уровень этичности в науке достаточно высок, – может, и нет. А вот в нашей стране на нынешнем этапе ее развития, когда продаются и покупаются ученые степени, дипломы и аттестаты, – подобного рода жесты кажутся сущей мелочью. Пока что у нас оценка научной деятельности по личным индексам цитирования не стала официальной, и потому значительной части российских исследователей в сущности все равно, насколько часто их цитируют. А вот если – не дай-то Бог – она приобретет подобный статус, указанные выше просьбы наверняка станут куда более распространенными. Ну а тому, кто постыдится обратиться к кому бы то ни было с подобным предложением, можно порекомендовать опубликовать не под своей подлинной фамилией, а под каким-либо псевдонимом собственную статью (или статьи), где есть ссылки на свои же публикации. Если не по душе и это, можно запросто даровать свое авторство на такую статью кому-либо из ваших коллег, не связанных с вами узами соавторства. Можно попытаться использовать опыт уже упоминавшегося выше Т.Д. Лысенко, без каких-либо китайских церемоний заставлявшего всех тогдашних биологов ссылаться на его собственные труды. Надо полагать, перечень подобных приемов, нацеленных на искусственное раздувание личного индекса цитирования, сказанным отнюдь не исчерпывается.

Вопросы непростые, и я не думаю, что адепты и последователи идеи об использовании индексов цитирования работ конкретного ученого в качестве главного критерия оценки качества его научной деятельности сумеют без проблем на них ответить. Для гротеска в заключение добавлю еще один вопрос, ответ на который, как мне представляется, и вовсе не нуждается в комментариях:

Наверное, за всю историю науки (во всяком случае, в бывшем СССР) никого не цитировали столько, сколько классиков марксизма-ленинизма. Можно ли считать, что их личный вклад в науку превышает вклад любого из остальных исследователей в области общественных наук? И не означает ли это, что вклад Лысенко (который, нало полагать, по числу ссылок на свои работы стоит на первом месте среди всех биологов бывшего СССР и нынешнего СНГ) в биологию является наибольшим?

В свете всего вышесказанного явно напрашивается вывод о том, что для объективной оценки качества научной деятельности требуется принципиально иной базис. Но это – тема уже для отдельного разговора.

Список литературы

1. Шувалов В. Критерии и критики // Поиск. 1997. № 42(440). 1997. 11 октября. С. 6.

2. Маркусова В. Осторожно – индекс цитируемости! // Поиск. 1997. № 44(442). 1997. 25 октября. С. 4.

3. Чайхалян Л., Иваницкий Г., Харакоз Д., Саркисов Г. «Объективные» критерии и реальные науки // Поиск. 1997. № 46(444). 1997. 8 ноября. С. 3.

4. Пудовкин А. Не обижайте медиану! // Поиск. 1997. № 47(445). 1997. 15 ноября. С. 5.

5. Касторы Б., Кулик А. Первая лига // Поиск. 1997. № 49(447).1997. 29 ноября. С. 15.

6. Климов В., Иванов В.. Объективность или субъективизм? // Поиск. 1997. № 51. 1997.13 декабря. С. 3.

7. Иванов И., Кудеяров В., Макеев О., Понизовский А. Иная ситуация // Поиск. № 51(449). 1997. 13 декабря. С. 3.

8. Шувалов В. Назло рекордам // Поиск. 1997. № 52(450). 1997. 20 декабря. С. 4–5.