Внимание посетителей сайта

Сайт kpe.ru является самостоятельным образовательным ресурсом поддержки Концепции общественной безопасности, и не связан с какой-либо общественной организацией

Контактная информация

   mera@kpe.ru

Концепция Общественной Безопасности
Текущие теоретические и аналитические работы ВП СССР смотрите на сайте

Подписка на рассылку

Подпишитесь на нашу рассылку, чтобы всегда быть в курсе обновлений информации на сайте.

рассылки subscribe.ru
страница рассылки

Главная События и мнения Оценка составляющих жизни общества Мировоззрение / Наука / Образование О Российском научном фонде и индексе Хирша: модернизация необходима

О Российском научном фонде и индексе Хирша: модернизация необходима

Просмотров: 3687

 E-mail

СКАЧАТЬ:     PDF (290 кб);     WORD (120 кб);     ODT (49 кб)

 

Открытое письмо в ФАНО и Министерство Образования и Науки России

Учёный, не имеющий времени на размышления – конченный учёный,
и если он не может переменить свой режим,
чтобы иметь достаточное время на размышления,
то ему лучше бросить науку
.
А.А.Любищев (1890-1972)

В печати в последнее время совершенно правильно уделяется большое внимание первым конкурсам РНФ. Я поздравляю коллег получивших гранты РНФ, хотя не могу не отметить, что (будем так говорить) «центры влияния» в параде победителей хорошо просматриваются. Мной тоже был подан в РНФ проект «Фундамент Западно-Сибирского нефтегазоносного мегабассейна: геодинамическая история, оценка перспектив нефтегазоносности» (оценки 81, 108, 82). Все 3 эксперта (СПАСИБО ВАМ!) на словах высоко оценили проект и рекомендовали его поддержать. Было высказано 2 замечания, которые вероятно и привели (судя по статье Г. Цирлиной «Покаянное /заметки об экспертизе проектов в РНФ/») к снижению оценок некоей таинственной промежуточной инстанцией в РНФ до 81 и 82 баллов и итоговой не поддержке моего проекта. Хотя с этими замечаниями (якобы отсутствие у меня аспирантов и опыта руководства проектами) я согласиться никак не могу. Аспирантов у меня, как у дурака фантиков – 6 человек под моим руководством защитили в последние годы кандидатские, и еще столько же их пишут.

По поводу «отсутствия опыта руководства проектами» – ещё смешнее. «Новая эра» в российской науке началась лично для меня в 1991 г. с доклада приезжавшего в Екатеринбург проф. Билла Кейнса (директор Института наук о Земле и ресурсов Университета Ю.Каролины) с детской простотой сидевшего на столе и рассуждавшего о том, как де замечательно устроена американская наука (пишутся заявки на проекты и т.п.). К чему и нам, ясное дело, надо было по его мнению радостно стремиться и т.п. (детальнее – см. речи руководителей МинОбра РФ и пр.). Вскоре я дважды по 2 месяца работал в этом институте визитинг-профессором. И насмотрелся. И в тихий ужас пришел: около 50% сил и времени основные сотрудники тратили на организацию проектов и получение на них финансирования, еще около 40% на изготовление красивых отчетов (шоб «костюмчик сидел»). И на собственно исследования оставалось соответственно 10% – и сил и денег. (Ну, максимум – 15%). А поскольку ясно, что за 10% работу выполнить, мягко говоря, трудно, то в институте постоянно работали научные бригады русских, казахов, индийцев, малазийцев и пр., для которых эти 10 американских процентов – были в 90-ых вполне даже себе ничего, подходящими деньгами. Так за то, что я там работал, моему российскому институту полагалось 400$ в месяц (деньги тратились в основном на компы, тогда дорогие), а мне Университет Ю.Каролины обеспечивал проживание + командировочные в размере 25$ в день, что в сумме за 4 месяца в начале 90-ых составило 1-комнатную квартиру в Екатеринбурге. Ну, как всем известно, очень скоро всё это проектное счастье привалило и нам. И продолжает валить по нарастающей. С той разницей, что и денег на проект гораздо меньше, и даются они реже (так при том % получивших грант, что имел место на первом конкурсе РНФ всё это – Артель «Напрасный труд»1), да и научные бригады скажем таджиков, вместо нас исследования за 10% вроде как еще не проводят. Пока. В итоге с 1991 г. мной со товарищи (1-2 помощниками) было подано в различные фонды (министерства, ведомства, компании и пр.) около 500 проектов. Чуть менее 150 из них получили хоть какие то деньги. Короче как в песне Ю.Лозы – «ты мне десятку на комоде оставил как заведено, а жизнь стремительно проходит…». Реально проектов было конечно написано существенно меньше – если хороший (естественно с моей точки зрения) проект не получал поддержки, я (как думаю и все мы…) старался его как то «модернизировать» (например, менял руководителя и ставил вместо себя академика – бывает, помогает…) и подавал снова. И лишь после 4-ой подачи – в мусорку. Во всех этих ≈130 финансировавшихся проектах я был фактическим руководителем, а примерно в половине – и официальным. Ни один из этих проектов не был провален, а подавляющее большинство были очень даже успешными. И это – «недостаточный опыт руководства проектами»? Считать ли эти проекты как того требует РНФ «значимыми»? А где критерии!? Я, ясен перец, считаю. И любой ученый любой свой проект, тем более выигравший финансирование, таковым считал, считает, и будет считать. Признаю, конечно, что не «атомный проект» и не запуск Юрия Гагарина. Опять же и всяко не из последних, особенно с учетом того, что нефть в России при таких темпах добычи к 2025 году будет покончаться…Можно, например, по поднятым деньгам пробовать судить (у меня - от стандартно малобюджетных РФФИ и др. и до 63 миллионов), но ясно что финансы – это то еще кривое зеркало.

В общем, странно как то всё с замечаниями и оценками. И первый блин РНФ – не порадовал.

* * *

Как известно, оценка работы ученых производится в настоящее время с достаточно широким использованием наукометрических показателей, и, в первую очередь, индекса Хирша2 [Hirsch, 2005]. И как бы к этому не относится (см., например, статьи А.Дмитриева, А.Полянина, R.Rousseau и др.), сие использование индексов есть объективная реальность, существующая вне зависимости от наших на то желаний и даже где-то чаяний.

Итак, поговорим об индексе Хирша, точнее об острой необходимости его модернизации. Мы же все таки ученые, и коль скоро нас оценивают по какому то критерию, то уж, наверное, научный разум (в том числе и коллективный) должен бы этот критерий постараться привести в порядок и сделать возможно более объективным, а не просто выгодным и удобным определенным отдельным группам. Если он конечно разумный, этот разум то. Как известно, высокую величину индекса Хирша многие научные работники, особенно физико-химики, материаловеды и пр., очень быстро набирают коллективными публикациями на популярные темы, сверхпроводимость какую-нибудь и пр. Причем у такой, широко цитируемой статьи количество материаловедов соавторов может быть и 10, и 30 и более (до 2000 и более соавторов!). Индекс же Хирша вырастет при этом у всех соавторов вне зависимости от их количества, причем на ту же самую величину, как и в том случае, если бы все они были единственными авторами той замечательной, широко цитируемой статьи. Но все-таки для оценки личного вклада исследователя в науку (а для этого собственно и применяется индекс Хирша) есть, наверное, разница – один он был автором статьи, открытия и пр., или же их было человек 50 или более.

Поэтому предлагаю ввести «Хк - индекс Хирша корректированный». Этот коэффициент считается также как индекс Хирша, но при этом количество ссылок на конкретную статью делится на число соавторов этой статьи. Причем первый автор публикации (только он один!) учитывается два раза. Поскольку все таки есть разница (или, по крайней мере, – должна быть) между первым автором и другими соавторами. Во многих здоровых научных микроколлективах, как известно, обычно используется такой принцип – первый автор статьи это есть её главный автор, остальные же соавторы идут просто по алфавиту. Чтобы не мудрить лишнего и попусту не заниматься регулярными разборками «кто есть ху» (как сказанула одна известная «голова с заплаткою»).

Пример: опубликовали статью трое – П.Петров, С.Сердюков и Е.Васильева и на статью есть 60 ссылок. Эти ссылки делятся в пропорции, причем как если бы Петров был дважды соавтором - Петров, Петров, Сердюков, Васильева. Тогда у первого автора Петрова эта статья будет фигурировать как имеющая 30 ссылок, у Сердюкова с Васильевой – как статья с 15 ссылками. Если авторы этой статьи лишь Петров и Сердюков (ну, вот опять Васильеву слили…), то у Сердюкова она будет иметь 60:3=20 ссылок. А у Петрова 60:3х2=40 ссылок.

Картина с Хк будет гораздо объективней, чем имеющаяся сейчас – с использованием h Хирша. Но конечно шансов на жизнь предлагаемому коэффициенту Хк сильно убавляют материаловеды и пр., сбившиеся в крупные стаи и уже поимевшие благодаря этому высокий индекс Хирша. Так, у материаловеда академика Солнцева К.А. (бывшего /ли!?/ управляющего делами РАН – многие эти «дела» недавно широко освещались в прессе и TV) h Хирша =14. Из этих 14 статей нет ни одной единоличной, и лишь в двух он первый автор. Количество соавторов чаще всего 6, Солнцев К.А. обычно последний или предпоследний. И это совершенно не худший пример, а рядовой (“нормальный”, если такое слово можно в таких случаях применять). Некоторые же можно сказать, как бы пишут как бы целыми институтами. Так, список соавторов в реально первой же попавшейся мне такой статье [Physics Letters B. 2012. Т. 710. С. 26-48] занимает 58 строк, примерно по 5 соавторов в каждой строке (по головам то мне ломы их считать было…). Я нисколько не сомневаюсь, что эта статья очень хорошая, раз на нее уже есть 21 ссылка, но все же согласитесь, что по такой публикации, наверное, трудно оценивать индивидуальную работу примерно 280 человек (соавторов)…

А так то бы предлагаемый Хк имел бы с течением времени положительный и моральный эффект, поскольку он ещё направлен и против фальшивого соавторства.

Ещё полезнее было бы заменить используемый сейчас индекс Хирша на Ck - индекс цитирования корректированный, т.е. общую сумму цитирований того или иного автора, с учетом соавторства по описанной выше процедуре.

Действительно, согласитесь, не вполне понятно, почему ученый написавший скажем 20 статей, на каждую из которых сослались по 2 раза (итого 40 ссылок, h Хирша=2), должен считаться гораздо менее научным, чем учёный, написавший 6 статей, на которые по 6 ссылок (итого 36 ссылок, h Хирша=6, т.е. в 9 раз выше чем у первого /6x6/:/2x2/=9). Вопрос - на каком таком основании второй хоть сколько то (хоть на миллиметр!) “научнее” первого?! Этому нет доказательств.

Ещё одна очевидная проблема – это учёт и минимизирование влияния самоцитирований. Так, например, один член-корр. из института, где я работаю, ссылается почти исключительно только на себя, любимого. И ничё так живет, не тужит. В целом это плохой признак. Получается, что человек слышит только сам себя. Я даже предлагал [Иванов, 2011] ввести коэффициент с названием Кгл – коэффициент глухоты (или глухаря). Для любой публикации

К гл = N своих : N общее

где N своих и N общее, соответственно количество ссылок на самих себя (соавторов публикации) к общему количеству цитированных в данной публикации работ.

Мне кажется, что если при репрезентативной выборке (например, в геологии обычно начиная с 8 и более /в данном контексте - ссылок в публикации/) К гл  более 0,4 это уже плохо, ну и чем ближе к 1,0 тем, наверное, больше оснований начинать скорей пытаться лечиться от мании величия.

И всё же полностью, на 100% выкидывать самоцитирования возможно и неправильно – например, ученый работает в очень узкой области науки (но кто ж его знает, вдруг именно она то в итоге и осчастливит многострадальное человечество?!). Поэтому предложение сводится к тому, чтобы учет самоцитирований отчасти все же оставить, но по «цене» на порядок более низкой.

В общем, переходя от рассуждений к конкретике, предлагаю минимизировать влияние обильных самоцитирований следующим образом:

Ck (индекс цитирования корректированный) х (110% - число самоцитирований по elibrary в %): 100.

Т.е., например, ученый с Ck =500 (т.е. имеющий 500 «корректированных цитирований») и числом самоцитирований 70% (оно есть в elibrary) будет иметь чистый индекс цитирования (можно назвать его Сс от clear, чистый)

Сс = 500х (110-70):100=500х0,4=200

Итак, я утверждаю, что Сс, т.е. чистая общая сумма цитирований всех научных статей (т.е. деленная на кол-во соавторов и избавленная от влияния самоцитирований, как описано выше) есть гораздо более объективная характеристика научного вклада того или иного учёного. В той мере, как это пока можно объективно и беспристрастно (автоматизировано) учесть, причем чрезмерно не заморачиваясь. Так иногда высказываются предложения учитывать еще и рейтинг журналов, но я с этим не могу согласиться. Во-первых, в принципе значимость научного результата не зависит от места публикации. Во-вторых, количество ссылок этот рейтинг журналов итак учитывает – если статья опубликована в престижном журнале с высоким тиражом и рейтингом, то значит ее прочитают больше ученых, соответственно (если в статье есть смысл) на нее и будет больше ссылок. В-третьих, это реально головная боль, все эти индексы непрерывно отслеживать, что-то там умножать, интегрировать и пр.

В-четвертых (last but not the least), наиболее высокорейтинговые англоязычные журналы сплошь и рядом не публикуют статьи русских ученых, если в их коллективе нет иностранцев. Английский язык де плохой, еще какую-нибудь якобы причину сыщут. В результате отечественная наука переходит в подчиненное положение, а чисто наши достижения зачастую становятся некими “общими”. Есть на этот счет и удручающая статистика и примеры такие знают, я думаю, очень многие ученые. Чисто чтобы не быть голословным – приведу один из своих. Написали мы как то с отцом мощную прорывную статью. Идея была его, я был помощником, переводчиком, «адвокатом дьявола» и пр. И послали в наиболее престижный журнал по теме. Вскоре приходит ответ от американца – статья де мол неплохая, но естественно нуждается в доработке, а с таким американским (английским языком) мы ее принять все равно не сможем, я бы дескать мог его улучшить, но я лишь член редколлегии и рецензент, но вот если бы я был вашим соавтором, статья бы конечно вышла без проблем. Именно вот так. Видит белый господин, что туземцы с алмазом бегают, прямо грех не попробовать отобрать. Думаю, что если б такое письмо было написано, скажем немцу, вышел бы большой скандал (а может и не вышел бы, с учетом что и у фрау Меркель американцы телефон прослушивают), во всяком случае, такое письмо немцу вряд ли бы было написано. Некоторые в такой ситуации соглашаются (мне известно много подобных примеров), но мы статью сразу забрали, послали ее в другой менее рейтинговый, но тоже американский журнал, где она сразу была опубликована [Ivanov, Ivanov, 1993], без каких-либо изменений и/или нареканий на качество языка. Но ссылок на нее сейчас, увы, немного (10), т.е. примерно на порядок меньше, чем, если бы публикация была бы сделана в первом журнале.

Ещё один немаловажный момент, который необходимо учесть. Любой индекс цитирования во-первых, есть величина сильно инерционная (поскольку ясно, что при прочих равных на только что вышедшую статью будет меньше ссылок, чем на опубликованную лет 5 назад), во-вторых, не учитывает тот факт, что если на статью нет или мало ссылок, то это еще не приговор. Не свидетельство её никчемности, ненужности и пр. «Позитивных причин нессылаемости» может быть достаточно много. Например, статья «слишком умная», или намного опередила своё время и соответственно её время еще придет. Или в статье рассматривается какой-то узкий научный вопрос, которым сейчас почти никто более не занимается. Да хоть бы и совсем никто – не всему же научному человечеству одни бозоны Хиггса изучать…, есть и менее популярные научные темы. Скажем изучение каких-нибудь ну совсем несъедобных мшанок моря Лаптевых. Опять же знать не можно – а вдруг именно в этих мшанках и содержится мощнейшее лекарство, допустим от инсультов. Глядишь, и не хуже «бозонов» в итоге окажется. Короче говоря – если статья написана и опубликована в настолько открытой печати, что попала, например, в базу elibrary – это уже должен быть какой то плюс ее автору. И используемый итоговый наукометрический коэффициент (назовем его – суммарный научный индекс Si, от scientific index) должен отличать, скажем, ученого, опубликовавшего за последние 5 лет 20 статей на которые нет пока ссылок, от ученого – вообще ничего не опубликовавшего.

И обеспечить это проще простого:

Si = Сс + n

где n – число публикаций данного ученого в базе elibrary (избавленное от влияния соавторства по отмеченной выше процедуре, т.е. статья, скажем, написанная 9 авторами засчитывается каждому из них за 0,1 статьи, а первому автору – за 0,2).

Можно рассчитывать не только суммарный (совокупный за всё время работы ученого) Si, но и величину этого индекса для характеристики работы ученого за последние 5 или 10 лет (Si5 и Si10 соответственно).

Введение предложенных наукометрических коэффициентов для объективной оценки научного труда в России необходимо именно сейчас, в момент реорганизации науки и грядущих видимо неминуемых сокращений штатов. Прикидки затрат времени показывают, что примерно 7-8 рядовых сотрудников, скажем ФАНО, всего лишь за 1-1,5 месяца смогут рассчитать Si, а также Хк, Ck, Сс всех работающих в РАН. Можно и того проще – поручить институтам самим рассчитывать. Если же всё оставить «на усмотрение» чиновников, то сокращать будут, вероятнее всего, просто ученых, неугодных местному начальству, без какой-либо объективности, совершенно бюрократам не нужной. При этом “достижения” холуёв, естественно, объявят «результатами намного превосходящими мировой уровень..» и т.п. Бумага то она, как известно, всё терпит, особенно если пишут по ней организмы, пораженные ржавчиной коррупции.

Призываю коллег к обсуждению затронутых вопросов.

Всем удачи!

Автор:
доктор геол.-мин. наук Иванов Кирилл Святославич, Екатеринбург,
4 июля 2014

Литература

Дмитриев А.И. Интегральный наукометрический показатель. ТрВ. 06 июня 2014 г. Рубрика: Гайд-парк онлайн

Иванов К.С. Коэффициенты соответствия занимаемой должности и «блата» — новые (альтернативные) наукометрические показатели для объективной оценки научного труда в России. www.kpe.ru

Иванов К.С. К истории изучения Платиноносного пояса Урала // Уральский геологический журнал. 2011, №2. С.51-57.

Полянин А.Д., 2014. Недостатки индексов цитируемости и Хирша. Индексы максимальной цитируемости. http://eqworld.ipmnet.ru/ru/info/sci-edu/Polyanin_IndexH_2014.html

Ivanov S.N., Ivanov K.S. Hydrodynamic Zoning of the Earth's crust and its Significance /Journal of Geodynamics, 1993, vol. 17, N 4, p.155-180.

Hirsch J.E. An index to quantify an individual’s scientific research output. Proc. Nat. Acad. Sci. // 2005. V. 102(46). P.16569–16572.

Rousseau R., Garcia-Zorita C., Sanz-Casado E. The h-bubble //Journal of Informetrics. 2013. V.7. P. 294–300.


1 - В США 30% поданных проектов получали финансирование, в Германии – 60% (во всяком случае, так было в 90-ых, когда я там часто бывал). Если же фонд финансирует 7% поданных проектов, то это означает, что 93% ученых (т.е. в 13 раз больше!) только зря тратят силы, время (деньги) и нервную энергию. Вместо того, чтобы наукой плодотворно заниматься. И рационально ли это с точки зрения общества в целом? Ой, вряд ли… Тем более, что и как показывает проводящееся сейчас в печати обсуждение (да и так понятно) нет совершенно никаких гарантий, что скажем из 100 проектов занявшие места с 1 по 7 (и получившие финансирование проекты) будут реально лучше, чем проекты занявшие скажем места с 21 по 28. Таким образом, моё предложение сводится к следующему: не проводить конкурсов с % побеждающих проектов менее 30, что легко можно регулировать количеством денег выделяемых на один проект. И если от этого какое-то «политбюро» в конкретной области науки в результате чуть меньше денег себе отгребёт, так это одна только гольная польза будет.

2 - Индекс Хирша является количественной характеристикой продуктивности учёного (реже - группы учёных). Учёный с индексом h опубликовал h статей, на каждую из которых сослались как минимум h раз.


Поиск по сайту