WWW.LIB.KNIGI-X.RU
БЕСПЛАТНАЯ  ИНТЕРНЕТ  БИБЛИОТЕКА - Электронные материалы
 

«Научные компьютерные сети – проблемы и успехи в организации обмена большими объемами научных данных *1,3, Корнилов В.В.2,3, Тарасов ...»

Математическая биология и биоинформатика. 2013. Т. 8. № 1. С. 161–181.

URL: http://www.matbio.org/2013/Isaev_8_161 .pdf

===================ИНФОРМАЦИОННЫЕ И ВЫЧИСЛИТЕЛЬНЫЕ=============

====================ТЕХНОЛОГИИ В БИОЛОГИИ И МЕДИЦИНЕ==============

УДК: 004.77:004.62:004.9

Научные компьютерные сети – проблемы и успехи в

организации обмена большими объемами научных

данных

*1,3

, Корнилов В.В.2,3, Тарасов П.А.4

©2013 Исаев Е.А.

Пущинская Радиоастрономическая обсерватория Астрокосмического центра ФИАН, Пущино, Московская область, 142290, Россия Институт математических проблем биологии, Российская академия наук

, Пущино, Московская область, 142290, Россия Национальный исследовательский университет «Высшая школа экономики», Москва, 101000, Россия ООО «НПК-ИНФОРМ», Москва, 109147, Россия

Аннотация. Практически в любых областях современной науки:

вычислительной биологии и биоинформатике, биомедицине, астрономии и астрофизике, метеорологии и климатологии, молекулярной физике и физике элементарных частиц, наблюдается непрерывный, значительный рост получаемых экспериментальных данных. Их общее количество уже измеряется в экзабайтах (миллиардах гигабайт). Успех в этих сферах сегодня зависит от эффективного взаимодействия большого числа исследователей, работающих в самых разных лабораториях мира, и от возможности перемещения больших объемов данных в реальном масштабе времени.



Ресурсы компьютерных сетей в 21 столетии становятся критическими для выполнения этих задач. В данной работе рассматриваются крупные научные проекты и даётся обзор научных компьютерных сетей, позволяющих производить высокоскоростную передачу больших объемов данных для этих проектов.

Ключевые слова: большие объёмы научных данных, высокоскоростная передача данных, научные компьютерные сети, грид-технологии, оптоволоконные сети.

ВВЕДЕНИЕ

Последние десятилетия ознаменовались стремительным ростом инструментальных возможностей науки. Лавинообразно растет объём экспериментальных данных, получаемых в различных областях науки, в первую очередь, в математической биологии и в астрономии [1]. Необходимость передачи сверхбольших объемов данных, получаемых в результате научных экспериментов, для их обработки в рамках облачных технологий или с использованием грид-технологии, обеспечение удалённого доступа исследователей к уникальному научному оборудованию, совместное выполнение проектов сотрудниками распределенных научных лабораторий, организация работы с базами данных научной информации, обмен опытом и результатами научных исследований, различные формы дистанционного обучения, проведение онлайн конференций в режиме реального времени, – всё это требует наличия высокоскоростных каналов связи как в локальных сетях научно-исследовательских * is@itaec.ru ИСАЕВ и др.

центров, так и в глобальном масштабе международного научного сотрудничества.

Успех в науке 21-го века зависит от возможности ученых оперировать большими объемами данных, от доступа к вычислительным и информационным ресурсам, и от эффективности удаленного взаимодействия ученых в реальном масштабе времени [2].

Очевидно, что обычные сетевые бизнес-средства для научного сообщества недостаточны. Реалии современной науки предъявляют к сетевой инфраструктуре особо высокие требования. Только специализированные научно-образовательные компьютерные сети позволяют учёным и исследователям из разных стран и континентов выполнять совместные проекты, предоставляя им возможность обмена информацией и удалённый доступ к научному оборудованию и вычислительным мощностям [3]. Как правило, доступ к этим сетям возможен только для членов академического сообщества.





Научно-исследовательские сети служат двум основным целям:

• Они поддерживают работу исследователей и учёных, обеспечивая их высокопроизводительной инфраструктурой для передачи больших объемов данных.

• Кроме того, они действуют как самостоятельный инструмент исследователя, предоставляя экспериментальную платформу, на которой можно развить и проверить новые технологии и услуги.

Значительные достижения в организации научных сетей были получены благодаря революционным изменениям в телекоммуникационном секторе. При этом большая часть современных коммуникационных технологий была разработана именно при использовании научно-исследовательских сетей, и многие технологии, которые ещё только будут в дальнейшем внедряться в коммерческих сетях общего пользования, уже успешно используются в данной области.

Рис. 1. Рост объёмов общего интернет-трафика, ПБ/месяц (Global consumer Internet traffic) [4].

В последние годы наблюдается 4-х кратный рост средней пропускной способности широкополосных каналов передачи данных с 7 Мбит/c в 2010 году до прогнозируемых 28 Мбит/c в 2015 году [4]. Однако резкое увеличение передаваемых объемов информации в локальных и региональных сетях сегодня приводит к исчерпанию Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

имеющихся ресурсов, а существующие прогнозы потребностей указывают на продолжение роста потоков в десятки и сотни раз. Общее увеличение интернеттрафика прогнозируется до 80 экзабайт в месяц в 2015 году, по сравнению с 20 экзабайт в месяц на 2010 год (рис. 1), что означает его рост от 30% до 40% в год.

Общее количество хранимой информации на нашей планете в 2010 превысило объём в 1 зеттабайт (1021 байт), что означает 143 Гб данных, приходящиеся на каждого из 7 миллиардов жителей планеты [5]. При этом наблюдается устойчивый рост хранимых данных от 40% до 50% в год, что означат удвоение общего количества хранимой в мире информации каждые два года, и значительный вклад в это рост вносят именно научные данные [6, 7] (рис. 2).

Рис. 2. Рост объёмов хранимых данных, экзабайты [5].

Единственной технологией, которая способна удовлетворить растущие потребности по передаче научных данных, являются оптоволоконные сети. Каналы этих сетей уже сегодня способны обеспечить пропускную способность исчисляемую десятками гигабит в секунду, ведутся разработки и испытания каналов с пропускной способностью исчисляемой терабитами в секунду. К сожалению, по мере роста пропускной способности возрастают проблемы управления, синхронизации и надежности каналов передачи данных [8]. Не претендуя на всесторонний технический анализ проблем, возникающих при создании высокоскоростных сетей передачи данных, и современных методов их решения, рассмотрим примеры локальных и крупнейших мировых научных проектов, генерирующие сверхбольшие объёмы научных данных, а также крупнейших компьютерных сетей, предназначенных, в первую очередь, для передачи научной информации.

НАУЧНЫЕ ПРОЕКТЫ, ГЕНЕРИРУЮЩИЕ СВЕРХБОЛЬШИЕ ОБЪЁМЫ

ДАННЫХ

Пущинский научный центр (ПНЦ) Российской академии наук является крупным научным центром России, имеющим мировое значение и объединяющим 9 научных учреждений РАН, специализирующихся в области физико-химической биологии, а также Пущинскую Радиоастрономическую Обсерваторию Астрокосмического Центра "Федеральное государственное учреждение науки Физического Института им.

Лебедева РАН" (ПРАО). ПНЦ расположен на юге Московской области, и для успешного выполнения научных исследований естественно было необходимо не только решить задачу создания локальной сети научного центра, но и обеспечения Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf ИСАЕВ и др.

магистрального доступа к Интернет. В ПНЦ РАН эта задача по созданию единой информационно-вычислительной структуры была возложена на Институт математических проблем биологии РАН. Эта работа проводится ИМПБ РАН с 1999 года, с опорой на собственные кадры и на сотрудников ПРАО. К настоящему времени создана высокоскоростная городская вычислительная сеть, объединяющая локальные сети институтов и предоставляющая доступ к Интернет [9]. Создание городской вычислительной сети (ГВС) потребовало прокладки большого количества коммуникаций, общая протяженность соединений превышает 20 км. Большая часть коммуникаций выполнена с использованием оптоволоконных кабелей, что позволяет достичь максимальной пропускной способности сети.

В состав этой сети входит высокопроизводительный компьютерный кластер ИМПБ РАН, предназначенный для выполнения ресурсоемких вычислений обширного круга задач фундаментальных исследований [10]. Данный вычислительный кластер – мощный компьютер с параллельной архитектурой, созданный для высокоскоростных математических вычислений (математическое моделирование сложных биологических систем, обработка данных биологических экспериментов т.д.). Вычислительные узлы кластера связаны между собой коммуникационной сетью, пропускная способность которой 40 Гбит/с. Также на базе ИМПБ РАН поддерживаются базы данных Объединенного центра вычислительной биологии и биоинформатики и другие информационные ресурсы [11]. В частности, здесь созданы и поддерживаются в актуальном состоянии сведения о различных биоинформационных и молекулярно-биологических базах данных, организованные в виде структурированных и упорядоченных списков аннотированных ссылок, а также оригинальные базы данных, разработанные сотрудниками института. Связь ПНЦ с Интернет осуществляется по магистральному оптоволоконному кабелю с пропускной способностью канала 1 Гбит/с. В настоящее время этой величины хватает для удовлетворения нужд научных сотрудников ПНЦ РАН, но, как мы увидим далее, развитие исследовательских проектов ИМПБ и ПНЦ в целом, например, глобальные астрономические проекты ПРАО, вероятно поставят в ближайшем будущем задачу по расширению внешнего канала и модернизации отдельных участков локальной сети.

Основной задачей ИМПБ РАН является разработка математических и вычислительных методов для биологических исследований [12]. Современные исследования в области медицины, биологии и генетики тесно связаны с новейшими достижениями в области информационных технологий и в основном базируются на обработке больших наборов цифровой информации. Наиболее остро проблема необходимости анализа сверхбольших объёмов данных наблюдается в биоинформатике. Основные направления работ ИМПБ РАН – математическое моделирование биологических объектов и явлений, разработка и применение математических методов в биологических исследованиях, математическая нейробиология, разработка алгоритмов и программ для изучения геномных последовательностей, численно-аналитические методы обработки данных биологических экспериментов, разработка методов получения, обработки и анализа цифровых изображений в биологии и медицине, программное обеспечение для изучения метаболизма клетки и др., оперируют с достаточно большими объёмами данных и требуют использования высокопроизводительных вычислительных ресурсов для их анализа и обработки. Часть вычислительных задач выполняется на локальном вычислительном кластере ИМПБ РАН, однако не менее активно используются вычислительные ресурсы крупнейших отечественных компьютеров, в частности вычислительные кластеры Межведомственного Суперкомпьютерного Центра (МСЦ) РАН [13], а также суперкомпьютерный комплекс Московского государственного университета [14]. Кроме того, ИМПБ РАН активно участвует в грид–инфраструктуре Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

(форма организации распределённых вычислений, подробнее – далее в статье), являясь членом консорциума РДИГ (Российский грид для интенсивных операций с данными – Russian Data Intensive Grid, RDIG). В рамках этой организации свои вычислительные мощности для интенсивных операций с научными данными совместно используют целый ряд российских научно-исследовательских организаций в Москве, СанктПетербурге и подмосковных научных центрах. Консорциум РДИГ в свою очередь входит в европейскую грид-структуру EGI (European Grid Infrastructure) в качестве региональной федерации для обеспечения полномасштабного участия России в этом проекте. EGI – это крупнейшая в мире грид-инфраструктура для выполнения ресурсоёмких вычислительных задач в области многих дисциплин. В неё входят свыше 300 организаций. Они образуют надёжную и способную к расширению систему компьютерных ресурсов, доступных исследовательскому сообществу Европы и всего мира. Исторически начав свою деятельность с решения задач ядерной физики, в настоящее время потенциал грид-технологии всё больше ориентируются на проблемы в таких научных областях как биоинформатика и здравоохранение (Biomedical Grids).

Ниже мы ещё вернемся к обсуждению инфраструктуры и потенциала проекта EGI.

Пущинская радиоастрономическая обсерватория является одной из крупнейших астрофизических обсерваторий в России. Локальная вычислительная сеть (ЛВС) ПРАО была создана в 1995 году, и с тех пор было проведено несколько модернизаций ЛВС, в результате чего пропускная способность увеличилась с 1 Мбит/с до 1 Гбит/с [05], а в некоторых местах и до 10 Гбит/с. Пропускной способности данной сети достаточно для того, чтобы снимать и обрабатывать данные трех уникальных радиоастрономических комплексов [16]: Радиотелескоп РТ-22 Физического института Российской академии наук (ФИАН) - это параболический рефлектор, главное зеркало которого имеет диаметр 22 м; диапазонный крестообразный радиотелескоп ДКР-1000; большая синфазная антенная (БСА). «Сырой» суточный поток данных от указанных комплексов составляет от 2 до 10 гигабайт.

На базе радиотелескопа РТ-22 была создана станция слежения для проекта «Радиострон» астрокосмического центра Физического института им. П.Н. Лебедева (АКЦ ФИАН). Суточный поток данных от данного радиоастрономического комплекса составляет чуть более 1,28 Тб. Для работы данного проекта используется канал связи пропускной способностью в 1 Гбит/с, который связывает между собой станцию слежения и буферный дата-центр, расположенные на территории ПРАО, а также центр обработки научной информации (ЦОНИ) Астрокосмического центра (АКЦ) ФИАН в Москве [16]. Сеть в вычислительном кластере ЦОНИ АКЦ ФИАН поддерживает скорость до 10 Гбит/с [17]. Цель данного проекта - проведение научных радиоастрономических наблюдений с помощью радиотелескопа, который был создан в научно-производственном объединении (НПО) им. Лавочкина [18] и смонтирован на космическом аппарате «Спектр-Р».

В настоящее время АКЦ ФИАН разрабатывает обсерваторию будущего «Миллиметрон». Уже на данный момент ясно, что для работы этого проекта потребуются сети с пропускной способностью, значительно превышающей существующую сеть проекта «Радиоастрон». Обсерватория «Миллиметрон»

предназначена для проведения исследований астрономических объектов во вселенной в широком диапазоне электромагнитного спектра от 20 микрон до 20 миллиметров.

Большая часть выбранного диапазона недоступна для наблюдений с поверхности Земли. Данный диапазон включает в себя максимум реликтового космологического излучения, а также основное излучение твёрдого вещества в космосе. Запуск данного проекта планируется в 2017-2018 годах [19].

–  –  –

Из всего многообразия мировых научных проектов генерирующих сверхбольшие объёмы данных и, соответственно, требующих наличие каналов высокоскоростной передачи данных, приведём только несколько из них, наиболее амбициозных.

Первый из них, это самая крупная экспериментальная установка в мире – большой адронный коллайдер (Large Hadron Collider, LHC), ускоритель заряженных частиц на встречных пучках, предназначенный для разгона протонов и тяжёлых ионов (ионов свинца) и изучения продуктов их соударений. Коллайдер построен в научноисследовательском центре Европейского совета ядерных исследований (CERN), на границе Швейцарии и Франции, недалеко от Женевы. Столкновения частиц фиксируются в детекторах коллайдера миллионами датчиков, при этом генерируются огромные массивы данных. Детекторы LHC должны быть способны зафиксировать «портрет» события, определив траектории частиц, их типы, заряды, энергию. Объём информации, производимый всеми четырьмя детекторами коллайдера при проведении экспериментов по столкновению ионов тяжёлых металлов, превышает 1 Гбит/с [20].

Хотя в настоящее время работа коллайдера временно приостановлена, в памяти вычислительных систем LHC хранятся сотни петабайт данных, накопленных в результате проведённых ранее экспериментов. Для анализа этого гигантского объема информации используется распределённая компьютерная сеть LCG (Large hadron collider Computing Grid) / LHCOPN (Large Hadron Collider Optical private network).

Крупнейшим зарубежным астрофизическим проектом, запуск которого планируется в ближайшее время, является массив радиотелескопов Low Frequency Array (LOFAR), который представляет собой сложную установку, состоящую из 48 станций, расположенных по всей Европе и охватывающих территорию диаметром более тысячи километров. Для работы данного массива телескопов в штатном режиме от системы оптоволоконных кабелей, соединяющей станции, необходима пропускная способность от 2 до 20 Гбит/с. Всего посредством данных станций будет объединено около 20 000 радиоантенн. Новый радиотелескоп будет исследовать низкочастотное радиоизлучение в поисках первых звезд и галактик, потенциальных сигналов внеземного разума, а также изучать черные дыры и пульсары. Сигналы со всех этих станций будут объединяться при помощи суперкомпьютера, превращая массив в самый сложный радиотелескоп в мире [21].

В 2016 году запланировано начало строительства крупнейшего в истории радиотелескопа SKA (Square Kilometre Array) [22]. SKA является самым глобальным астрономическим проектом XXI века. Ядро телескопа будет состоять из трех тысяч тарелок диаметром 15 метров, при этом будет использоваться технология, позволяющая объединить приемные площади отдельных радиотелескопов в одну общую площадь размером в один квадратный километр. Начать наблюдения планируется к 2019 году, а выход на полную мощность к 2024 году. Утверждается, что с помощью SKA можно будет на расстоянии в 50 световых лет уловить излучающие сигналы мощностью, сравнимой с сигналом обычных радаров, используемых в аэропортах. Особое место в структуре SKA занимает обработка данных. Уже к первому этапу сдачи SKA в эксплуатацию предстоит решить технологическую проблему высокоскоростной передачи сверхбольшого потока данных. Ожидается, что после выхода на полную мощность телескоп SKA будет генерировать более 1 экзабайта информации в день – это в 2 раза больше всего существующего на данный момент интернет-трафика. В сутки будет требоваться сохранять и обрабатывать не менее 1 петабайта сжатых данных. Огромные технологические проблемы содержит в себе и обработка этого сверхбольшого потока данных. Для достижения запланированных параметров, станции SKA должны быть связаны широкополосными оптоволоконными линиями связи со скоростью передачи не менее 160 Гбит/с [23].

Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

Понятно, что успешное выполнение научных проектов такого масштаба, основанных на использовании удалённых вычислительных ресурсов и совместной распределённой обработки данных, не возможно без наличия высокоскоростных сетей передачи данных.

КОМПЬЮТЕРНЫЕ СЕТИ НАУКИ И ОБРАЗОВАНИЯ

Таким образом, становится очевидным, что объёмы данных, генерируемые крупнейшими научными проектами, или уже достигли предела скорости каналов передачи информации, или же в ближайшее время потребуют от сетей передачи данных пропускной способности в несколько, а то и в десятки раз превышающие стандартные на сегодняшний день величины. Согласно докладу организации Institute of Electrical and Electronics Engineers (IEEE), с учетом сегодняшних тенденций по возрастанию объема передаваемой информации, для удовлетворения потребностей всех пользователей сети Интернет, скорость передачи данных должна достигнуть 400 Гбит/с в 2015 году и 1 Тбит/с в 2020 году [24]. В связи этим необходимы принципиально новые технологические решения, позволяющие существенно увеличить скорость передачи данных с помощью уже существующих коммуникационных сетей, а также строительство каналов связи, которые позволят справиться с передачей сверхбольших объёмов данных с учётом прогнозируемых темпов их роста.

Понятно, что существенное увеличение скорости передачи данных является сложной научно-технической задачей, требующей решения комплекса проблем на всех уровнях технологического обеспечения передачи данных: это и протоколы передачи данных, и используемое коммуникационное оборудование, и схемы кодирования и модуляции сигналов, и используемые виды сред передачи данных (такие как оптоволокно, витая пара, коаксиальный кабель, спутниковый канал передач данных, технологии мобильного интернета) и т.д. Наиболее современным видом проводной связи в настоящее время является волоконно-оптическая связь, использующая в качестве носителя информационного сигнала электромагнитное излучение оптического диапазона, а в качестве направляющих систем — волоконно-оптические кабели.

Пропускная способность волоконно-оптических линий многократно превышает пропускную способность всех других систем связи. Базовым физическим механизмом для оптоволоконных сетей является то, что информация передается путем модуляции света в оптоволоконном кабеле. Для современных и проектируемых электроннооптических технологий, максимальный поток, который может быть передан по одному волокну составляет 10 Гбит/с. Однако, через одно волокно может передаваться свет с разными длинами волн одновременно. Передача данных со скоростью более 10 Гбит/с требует использования нескольких длин волн, или нескольких (так называемая лямбда-модуляция). Поскольку каждое волокно, используя технологию спектрального уплотнения каналов, может передавать до нескольких сотен каналов одновременно, общая скорость передачи информации по волоконно-оптическому кабелю теоретически может измеряться терабитами в секунду [25]. Не вдаваясь в тонкости технических решений новейших разработок в области коммуникационного оборудования и технологий передачи данных, рассмотрим уже существующие достижения и перспективы создания высокоскоростных сетей передачи данных.

Компьютерные сети, ориентированные на научные приложения, имеющие дело с большими объёмами информации, заметно отличаются от всех других сетей. Для данной полосы пропускания они имеют намного большие скорости отдельных потоков данных и меньшее суммарное количество потоков. Часто единственный поток данных занимает существенную часть (10 - 50 %) общей полосы пропускания канала (причем данные могут передаваться на межконтинентальные расстояния). В дальнейшем эти

–  –  –

показатели, как ожидается, продолжат увеличиваться из-за увеличения прироста экспериментальных данных и увеличения интенсивности обмена данными между научными лабораториями [26].

Общеевропейская сеть науки и образования «GANT»

Наиболее глобальным европейским проектом в настоящее время является Общеевропейская сеть науки и образования (GANT), самая большая научнообразовательная сеть в Европе, по существу являющаяся консорциумом национальных научно-образовательных сетей (NRENs) стран Западной и Восточной Европы. GANT объединяет около 50 миллионов пользователей 10000 научных институтов европейских стран, использует высокоскоростную телекоммуникационную инфраструктуру в различных регионах Европы, обеспечивая эффективное информационное взаимодействие научных организаций и университетов [27]. Сейчас выполняется уже вторая стадия проекта – GANT2, в рамках которой реализуются возможности коммутации оптических каналов и выделения виртуальных каналов между выделенными сетями. Основной целью проекта является планирование, построение и обеспечение функционирования мультигигабитной европейской опорной исследовательской сети, связывающей европейские национальные сети науки и образования, в которой будет обеспечен набор передовых сервисов, соответствующий всевозрастающим требованиям европейского научного и образовательного сообщества [28].

GANT2 финансируется совместно Европейской комиссией и европейскими NRENs, и управляется некоммерческой организацией – международным провайдером научно-образовательных сетей DANTE, в задачи которого входят планирование, создание и эксплуатация сетевой инфраструктуры в Европе для нужд науки и образования. Также значительный вклад в развитие проекта вносит TERENA, Европейская ассоциация научно-исследовательских организаций и образовательных сетей, в задачи которой, в частности, входит поддержка и координация научных исследований и разработок среди партнеров проекта. Сообщается, что общая стоимость проекта может достигать 200 миллионов евро. GANT2 имеет большой географический охват, предлагает высокую пропускную способность, инновационные гибридные сетевые технологии, а также ряд ориентированных на пользователей услуг, что делает его самой передовой международной сети в мире. GANT2 является уже седьмым поколением общеевропейских научных сетей и самой большой научнообразовательной сетью, когда-либо построенной в Европе. Ее общая протяженность более 50 000 км, она соединяет 34 страны на континенте и имеет обширные связи с Северной Америкой и Азией. Общая пропускная способность новой сети должна достигнуть 500 Гбит/с, что в 2.5 раза выше возможностей предыдущей сети GANT.

Ученые Европы могут использовать GANT2 в целях глобального научного сотрудничества в сфере совместных исследований и образования.

В настоящее время в проекте GANT/GANT2 принимают участие 30 национальных научно-образовательных сетей (рис. 3), таких как NORDUnet – северная региональная NREN, которая объединяет научные и образовательные учреждения Дании, Финляндии, Исландии, Норвегии и Швеции, DFN – немецкая NREN, JANET – NREN Великобритании, RENATER – представляющая NREN Франции, SURFnet – NREN в Нидерландах, SWITCH – швейцарская NREN, ULAKBIM – NREN Турции, RedIRIS – представляющая испанские NREN, IUCC – Израильские NREN и др. Россия подключена к сети GANT с 2003 года. С 2004 года Россия – полноправный участник проекта GANT2, представителем Российского научно-образовательного сообщества в проекте является МСЦ РАН. Информационный обмен российских научноМатематическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

образовательных сетей с сетью GANT обеспечивает сеть Российской академии наук RASNET.

Рис. 3. Планируемая топология магистральных каналов сети «GANT2» [28].

Высокоскоростные сетевые технологии коренным образом изменяют научную работу во всём мире, позволяя учёным, исследователям и студентам более эффективно сотрудничать, несмотря на разделяющие их расстояние, благодаря использованию усовершенствованной сетевой инфраструктуры сети GANT2. Новаторские технологические решения, применяемые в этой сети, обеспечивают ещё большую пропускную способность, предоставляя европейскому научному и образовательному сообществу услуги и инфраструктуру мирового класса.

Среди сетевых сервисов, предлагаемых пользователям в рамках проекта, можно выделить: сервис IP LBE, ориентированный на исследовательские и образовательные проекты, требующие передачи больших объемов данных; Premium IP, характеризующийся высокой пропускной способностью и ориентированный на проекты, требующие высокого качества соединения между конечными пользователями Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf ИСАЕВ и др.

с коротким временем установки и ограниченным периодом использования; VPN (виртуальная частная сеть) – сервис, поддерживающий коммутированные соединения и частные сети, основанные на технологии MPLS, и ориентированный на распределенные проекты с высокими коммуникационными требованиями и поддержку грид-технологий; сервис оптической коммутации каналов с образованием выделенных соединений для поддержки исследовательских и образовательных проектов с высочайшими требованиями по пропускной способности и переменной топологии сети.

Крупнейшими пользователями GANT являются CERN, который использует ресурсы GANT для работы распределённой компьютерной сети, ориентированной на обработку данных, поступающих от LHC, и DEISA, распределённая европейская инфраструктура для суперкомпьютерных приложений, финансируемая ЕС распределенная вычислительная структура, состоящая из 11 самых больших суперкомпьютеров Европы. DEISA позволяет ведущим научным исследователям иметь доступ к современным вычислительным ресурсам High Performance Computing (HPC) с суммарной вычислительной мощностью более чем 200 терафлопс. Используя магистральные линии GANT, DEISA значительно увеличил скорости обмена данными между суперкомпьютерными центрами. Предоставляемый в рамках проекта сервис VPN позволяет исследователям получить более быстрый и более эффективный доступ к общей файловой системе DEISA, обеспечивая инновационные приложения вычислительных наук [29].

Рис. 4. Схема соединений сети «GANT» с другими научно-исследовательскими сетями [27].

Проведение научных исследования в глобальном мировом масштабе становится все более и более важным для решения многих международных проблем. Европейские исследователи в областях, таких как сейсмология, физика элементарных частиц, метеорология и изменение климата, биоинформатика и геномика должны иметь возможность работать в близком контакте с их зарубежными коллегами по всему миру.

Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

Сети GANT/GANT2 в полной мере предоставляют своим пользователям такие возможности. У этой сети имеются обширные связи с различными регионами по всему миру благодаря сотрудничеству с региональными сетями в Северной и Латинской Америке, Балканах, Средиземноморье, Южной Африке, Центральной и Восточной Азии (рис. 4).

Первая сеть GANT имела соединения с научно-исследовательскими сетями в Северной Америке (Abilene, ESnet и CA*net4) и Японии (SINET). В рамках проекта GANT2 выполняется модернизация маршрутов через Атлантику и развёртывание новых связей с Китаем и Индией. Организуются межсетевые соединения с национальными научно-исследовательскими сетями в Латинской Америке (ALICE и RedCLARA), Средиземноморье и Ближнем Востоке (EUMEDCONNECT), АзиатскоТихоокеанском регионе (TEIN2) и Китае (ORIENT) с целью организовать действительно глобальное научное сотрудничество. Сеть GANT2 также соединяется с сетью SEEREN2 (Юго-восточная Европейская Сеть Исследования и Образования), уменьшая тем самым цифровое неравенство между Восточной Европой и Западной Европой.

Проект «European Grid Infrastructure»

Другим глобальным проектом по объединению вычислительных ресурсов европейских научных организаций и университетов в единую вычислительную сеть является проект European Grid Infrastructure (EGI), направленный на формирование и развитие международной грид-инфраструктуры, объединяющей региональные и национальные грид-структуры [30]. Проект запущен в 2010 году и является наследником таких известных европейских проектов по построению грид-сетей, как DataGrid (2002-2004) и EGEE (Enabling Grids for E-sciencE, 2004-2010) [31]. Напомним, что под термином «грид» (англ. «grid», решётка) принято понимать способ организации распределённых вычислений, в которой «виртуальный суперкомпьютер» состоит из большого количества независимых, разнесённых в пространстве компьютеров различного типа и мощности, соединённых с помощью сети и работающих вместе для решения научных задач, требующих значительных вычислительных ресурсов. Грид является географически распределённой инфраструктурой, объединяющей множество ресурсов разных типов (процессоры, долговременная и оперативная память, хранилища и базы данных, сети), доступ к которым пользователь может получить из любой точки, независимо от места их расположения.

Проект EGI направлен на создание международной инфраструктуры, основанной на грид-технологиях, доступной 24 часа в сутки и предоставляющей исследователям возможность использования крупнейших вычислительных ресурсов. В состав этой инфраструктуры входят грид-структуры, объединённые по поставленным научным целям в виртуальные научные сообщества (Virtual research communities (VRCs)), и региональные грид-сети (National Grid Infrastructures (NGIs)) около 30 европейских стран (рис. 5).

В настоящее время к проекту присоединились также национальные грид-структуры США (Open Science Grid (OSG)), Азиатско-Тихоокеанского региона (InSPIRE), Центральной и Южной Америки (GISELA), Южной Африки (SAGrid) и др. регионов.

Российская региональная федерация грид представлена в проекте консорциумом РДИГ (Российский грид для интенсивных операций с данными – Russian Data Intensive Grid, RDIG) в котором принимают участие 8 институтов Москвы, Московской области и С.Петербурга: НИИЯФ МГУ, ИТЭФ, ИФВЭ, ИМПБ РАН, ОИЯИ, ПИЯФ РАН, РНЦ КИ, ИПМ РАН [32].

–  –  –

Крупнейшими VRC, участвующими в проекте EGI, являются Worldwide LHC Computing Grid (wLCG) – грид, предназначенный для обработки больших объёмов данных, поступающих с Большого адронного коллайдера [33], WeNMR (A worldwide eInfrastructure for NMR and structural biology) – международная грид-структура, объединяющая научно-исследовательских группы в области структурной биологии и области наук о жизни, LSGC (The Life-Science Grid Community) – охватывает исследовательские группы из университетов, исследовательских и медицинских центров и промышленных корпораций в области наук о жизни – биоинформатика, геномика, системная биология, биомедицина и др., а также VRC, специализирующиеся в области гуманитарных наук – CLARIN (Common Language Resources and Technology Infrastructure) и DARIAH (Digital Research Infrastructure for the Arts and Humanities). В целом в рамках проекта EGI научному сообществу предоставляется доступ к более чем 320 000 логическим процессорам и 180 петабайтам дискового пространства.

Вычислительные ресурсы совместно предоставляют около 350 центров, распределённые по 56 странам.

Понятно, что успешная реализация проекта по такому объединению вычислительных ресурсов прежде всего требует обеспечения высокоскоростного обмена информацией и научными данными, в том числе передача больших и сверхбольших объемов научных данных, визуализация вычислительных экспериментов и т.п. Для этого в рамках проекта ведётся активное сотрудничество с провайдерами национальных научно-образовательных сетей и вышеописанным проектом GANT в целом.

Национальная научная сеть США «Energy Sciences Network»

Национальная научная сеть США Energy Sciences Network (ESnet) представляет собой высокопроизводительную общедоступную национальную сеть, построенную для поддержки научных исследований [34]. При финансовой поддержке научного отдела Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

департамента энергетики США (Department of Energy's Office of Science, SC) [35] и управляемая Национальной лабораторией Лоренса в Беркли (Lawrence Berkeley National Laboratory), ESnet предоставляет услуги более чем 40 научноисследовательским структурам, включая систему национальных лабораторий и технологических центров США (рис. 6).

Рис. 6. Национальная научная сеть США «Energy Sciences Network» [34].

ESnet взаимодействует со 140 исследовательскими и коммерческими международными сетями, что позволяет ученым США плодотворно сотрудничать с партнерами по всему миру, включая такие известные научно-образовательных сети, как GANT/GANT2 (Европа), APAN (консорциум национальных научнообразовательных сетей стран Юго-Восточной Азии и Тихоокеанского региона), GLORIAD (Global Ring for Advanced Applications Development, проект высокоскоростного трансконтинентального телекоммуника-ционного кольца с участием Канады, России, стран северной Европы и Нидерландов, Китая и Южной Кореи), AARnet (Австралия), SINET (Япония) и др.

В условиях роста международного сотрудничества в различных научных областях, таких как биоинформатика, биомедицина, климатология, геномика, научному сообществу необходимо передавать на значительные расстояния, обрабатывать и анализировать большое и постоянно значительно увеличивающее количество данных.

В настоящее время по сети ESnet ежемесячно передаётся около 7 - 10 петабайт данных (рис. 7).

–  –  –

Рис. 7. Трафик по сети «ESnet» (петабайт/месяц, логарифмический масштаб) [34].

Уровень трафика по сети ESnet увеличивается в среднем в 10 раз каждые 4 года, за счёт постоянно возрастающих потоков данных, производимых всё более мощными суперкомпьютерами, за счёт развития глобального международного сотрудничества, которое может объединять тысячи исследователей из разных регионов в совместной работе над проектами, а также за счёт развития научных суперпроектов таких как Большой адронный коллайдер или Sloan Digital Sky Survey.

Ожидается, что к 2016 ESnet должен будет способен передавать 100 петабайт данных в месяц [36].

В 2009 ESnet получил $62 миллиона инвестиций для развития инфраструктуры следующего поколения, чтобы обеспечить необходимую поддержку научным исследованиям в условиях интенсивного роста объёмов научных данных.

В ноябре 2012 года началось развертывание ESnet5 – пятого поколения сети ESNET.

Инфраструктура ESnet5 базируется на соединяющей национальные исследовательские университеты США сети Internet2, современной компьютерной сети, использующей самые передовые сетевые приложения и технологии, такие как протокол передачи данных IPv6, средств multicast (широковещательной передачи данных нескольким абонентам одновременно), поддержка QoS (средства обеспечения приоритетного качества в передаче видео- и голосовой информации), а также использование высокоскоростных (10 Гбит/с) магистральных каналов. Internet2 и ESnet совместно используют свои ресурсы, для того, чтобы развернуть глобальную сеть с пропускной способностью 8.8 терабит, построенную с использованием пакетных оптических платформ компании Ciena 6500 (Ciena’s 6500 Packet-Optical Platform). В качестве сетевых маршрутизаторов ESnet использует Alcatel-Lucent 7750 Service Routers – современные мультисервисные маршрутизаторы со встроенными средствами управления, контроля и конфигурирования. Новая сеть позволяет десятикратно увеличить полосу пропускания каналов.

Дополнительно в рамках сети ESnet проводятся испытания сети национального масштаба следующего поколения, предоставляющей исследователям возможность Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

проведения экспериментов с новыми сетевыми технологиями, протоколами и приложениями на скорости 100 Гбит/с [37]. Новые сетевые технологии включают в себя многослойные многодоменные гибридные сети, сетевые протоколы и компоненты.

В настоящее время проводятся тестирование возможностей новой сети: её способности по защите и восстановлению данных, автоматической конфигурации больших потоков данных, а так же другие инновационные сетевые эксперименты.

Корпоративная сеть Российской академии наук «RASNET»

Корпоративная сеть Российской академии наук объединяет региональные сети отделений и научных центров РАН. Сеть предназначена для организации информационного обмена институтов и подразделений внутри РАН, с российскими и зарубежными научно-образовательными сетями и Интернет [38].

Сеть построена на базе системы программно-технологических комплексов обмена трафиком научно-образовательных сетей, объединенных магистральными каналами связи. Комплексы обмена трафиком, расположенные в Москве, Екатеринбурге, Новосибирске и Хабаровске, осуществляют информационный обмен корпоративной сети РАН с региональными научно-образовательными сетями, с российским Интернетсообществом. RASNET имеет прямые подключения к магистральным операторам связи для доступа институтов и организаций РАН в Интернет. В рамках академической сети возможна организация виртуальных каналов для объединения институтов в виртуальные организации (грид-структуры) при проведении совместных научных исследований в различных областях.

RASNET обеспечивает присутствие в России общеевропейской академической сети GEANT2 и доступ к ней всех российских научно-образовательных сетей.

Федеральная университетская компьютерная сеть России «RUNNet»

Федеральная университетская компьютерная сеть России RUNNet (Russian UNiversity Network) является основой телекоммуникационной инфраструктуры единой образовательной информационной среды и обеспечивает образовательным учреждениям доступ к российским и мировым научно-образовательным ресурсам Интернета (рис. 8). Сеть RUNNet была создана в 1994 году в рамках государственной программы "Университеты России" как IP-сеть, объединяющая региональные сети, а также сети крупных научно-образовательных учреждений. Основная задача RUNNet формирование единого информационного пространства сферы образования России и его интеграция в мировое информационное сообщество, реализация международной кооперации в области науки и образования. В настоящее время сеть RUNNet является крупнейшей российской научно-образовательной IP-сетью, предоставляющей услуги более чем 500 университетам и другим крупным образовательным и научноисследовательским учреждениям, подключенным либо непосредственно на опорную сеть RUNNet, либо через региональные научно-образовательные сети [39].

Связность сети RUNNet с мировым информационным телекоммуникационным пространством образования и науки обеспечивается высокоскоростными каналами Москва - Санкт-Петербург - Стокгольм - Амстердам (10 Гбит/с) и Москва - СанктПетербург - Хельсинки - Стокгольм (10 Гбит/с). Узлы RUNNet, находящиеся на площадках научно-образовательной сети стран Северной Европы (NORDUnet, Стокгольм), Института субатомной физики Нидерландов (NIKHEF, Амстердам) и Суперкомпьютерного центра Финляндии (CSC, Хельсинки) обеспечивают доступ RUNNet и всех научно-образовательных сетей России в международные межнациональные научно-образовательные компьютерные сети [40].

Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf ИСАЕВ и др.

Рис. 8. Инфраструктура сети «RUNNet» [41].

Сеть RUNNet обеспечивает связность академических и университетских центров, ресурсных центров сферы образования России друг с другом и с международными научными сетями (GEANT, NORDUnet, NLR и др.), с российскими научнообразовательными сетями федерального уровня (RBNet, RASNet, RUHEP/Radio-MSU, RSSI) и региональными научно-образовательными сетями (RELARN-IP, ЮМОС, Rokson, Rusnet, сетями Московского и Санкт-Петербургского государственных университетов и др.) [42].

Работы по построению и развитию сети RUNNet проводятся по заданию Министерства образования и науки РФ в рамках ряда федеральных, межведомственных и отраслевых программ. В настоящее время оперативным управлением и развитием сети RUNNet занимается Государственный научно-исследовательский институт информационных технологий и телекоммуникаций" (ФГАУ ГНИИ ИТТ "Информика").

Другие проекты по созданию высокоскоростных каналов передачи данных Сообщается о вводе в эксплуатацию высокоскоростной сети со скоростью передачи данных в 100 Гбит/с, предназначенной для научных исследований и образования.

Новая сеть создана в США, штат Индиана и названа Monon100 [43].

Новая сеть призвана обеспечить доступную высокоскоростную связь между университетами в Индиане, предоставляя учёным и исследователям новые возможности для сотрудничества и позволяя им совместно использовать массивные объёмы данных, что, в свою очередь, сможет привести к новым открытиям в науке и медицине. Monon100 протянулась из Индианаполиса в Чикаго, соединяя Indiana GigaPoP NOC (центр управления данными Университета Индиана), с национальной сетью исследований и образования США Internet2.

В Европе (Франция) в 2013 году была введена в эксплуатацию линия связи, данные по которой передаются со скоростью порядка 400 Гбит/с. Оптоволоконная линия длиной около 450 км соединила Париж и Лион. Инфраструктуру для Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

высокоскоростного соединения подготовили компания-производитель телекоммуникационного оборудования Alcatel Lucent и оператор связи France TelecomOrange [44]. Данная сеть используется как для научных целей, так и для целей бизнеса и работы с мультимедиа-контентом.

В ближайшее время планируется запуск в коммерческую эксплуатацию кабельной сети Europe-Persia Express Gateway (EPEG) от Франкфурта до Барки (Оман). Это международный проект, в котором участвует и Россия. В данный момент практически все участки кабельной сети проложены, происходит их тестирование. Начальная пропускная способность данной сети будет 540 Гбит/с, однако проектная мощность новой системы составляет 3,2 Тб/с [45].

Сообщается о перспективах использования лазерной связи для передачи данных между космическими аппаратами и наземными станциями. Согласно данным Российского Федерального космического агентства по лазерному каналу связи недавно была осуществлена передача научной информации, подготовленной на борту Международной космической станции [46]. Общий объем данных составил 400 МБайт.

Информация передавалась через атмосферу Земли в дуплексном режиме (передача информации одновременно в двух направлениях) со скоростью 125 Мбит/с от бортового лазерного терминала и 3 Мбит/с от наземного лазерного терминала.

Указывается, что при меньших массогабаритных параметрах бортовой аппаратуры лазерные линии связи могут обеспечивать исключительно высокую скорость информационного потока – до десятков гигабит в секунду. Об успехах аналогичных разработок сообщатся и в отчётах Американского аэрокосмического агентства [47].

разрабатывает инновационную коммуникационную систему Laser NASA Communications Relay Demonstration (LCRD) (рис. 9). Лазерные лучи позволяют передавать информацию на Землю со спутников и космических кораблей в 10—100 раз быстрее радиосвязи, по прогнозам, новая лазерная технология обеспечит скорость передачи данных в десятки гигабит в секунду.

Рис. 9. Инновационная коммуникационная система «The NASA's Laser Communications Relay Demonstration» [47].

Международная команда физиков, работающая под руководством специалистов из Калифорнийского технологического института (California Institute of Technology, Caltech), переправила данные с рекордной скоростью – 339 гигабит в секунду. Для сравнения: это все равно, что передать четыре миллиона гигабайт информации за один день. Сообщается, что гигантский объем данных был передан по каналу, соединяющему канадскую Викторию и Солт-Лейк-Сити. При этом был установлен еще Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf ИСАЕВ и др.

один рекорд – скорость двусторонней передачи по одному оптоволоконному кабелю достигла 187 Гбит/с [48]. Отметим также, что разработчики из Caltech намерены уже в будущем году поставить новый рекорд скорости – 1 терабит в секунду (то есть научиться переправлять тысячу гигабит в секунду).

Самая быстрая скорость передачи данных по оптоволокну на данный момент достигнута японскими компаниями Nippon Telegraph и Telephone Corporation (NTT), работавшими совместно еще с тремя партнерскими организациями, компанией Fujikura Ltd., университетом Хоккайдо и Датским техническим университетом (Technical University of Denmark, DTU). Их эксперимент в сентябре 2012 года продемонстрировал рекордную скорость передачи информации по одному оптоволоконному кабелю. Во время испытаний новой линии связи специалистами была зарегистрирована скорость передачи данных 1 петабит в секунду по оптоволоконному кабелю с 12 световодными каналами и длиной 52.4 километра. Это на порядки больше, чем показатель кабелей, находящихся сегодня в коммерческой эксплуатации [49].

ЗАКЛЮЧЕНИЕ

Для эффективного получения научных результатов в условиях современного мира, характеризующегося быстрым ростом количества производимых научных данных и постоянным усложнением научной технологии, требующей глобального международного сотрудничества ученых, необходимо оптимальное использование имеющихся ресурсов, которых условно можно разделить на три основных класса:

высокопрофессиональные группы ученых, работающих в самых разных лабораториях мира; продвинутые суперкомпьютеры и научные установки мирового класса, генерирующие при проведении вычислительного моделирования и исследовательских экспериментов сверхбольшие объёмы данных; инфраструктура и системы управления, которые делают возможным эффективное использование этого оборудования. Научное сообщество с его петабайтными объемами данных довольно широко разбросано географически. Экспериментальные установки, супер-ЭВМ и компьютерные кластеры, предлагающие достаточно большие вычислительные мощности, пользовательские системы, которые имеют уникальные экспериментальные возможности, хранилища экспериментальных и вычислительных данных – всё это является географически распределенными ресурсами. Имеется сложная научно-сетевая инфраструктура:

географически разбросанные ученые и инженеры образуют команды, чтобы совместно решать проблемы, объединив имеющиеся ресурсы и адаптируя оборудование, программы и системы. В современном мире научное исследование представляется в виде распределенной научной среде, в которой интегрированы научная теория, эксперимент и моделирование: уникальные научные инструментальные системы, являющиеся источниками мощных потоков данных, генерируемых с большой скоростью; эти данные требуют комплексного анализа научными сотрудниками в сотнях лабораторий и университетов по всему миру; в конечном счете, результаты всей этой экспериментальной науки должны быть сравнены и сопоставлены с теорией.

Обычно это делается с привлечением компьютерного моделирования.

Таким образом, для научных сетей становятся особо важными три фактора:

объем данных, получаемых в результате экспериментов и моделирования;

совместно используемое оборудование и программы для анализа данных;

визуализация результатов экспериментов, удалённое управление оборудованием и другие прикладные вычислительные средства, используемые учеными.

Следовательно, чтобы успешно реализовывать современные научные проекты, необходимо эффективное функционирование современных высокопроизводительных компьютерных сетей глобального уровня, которые способны выдерживать высокие Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

пиковые нагрузки (в области терабайт и даже петабайт), позволяющие гибко управлять крупномасштабными потоками данных и предоставляющие удаленный доступ исследователей к сложному научному оборудованию и вычислительным ресурсам в реальном масштабе времени.

СПИСОК ЛИТЕРАТУРЫ

Исаев Е.А., Корнилов В.В. Проблема обработки и хранения больших объемов 1.

научных данных и подходы к ее решению. Математическая биология и биоинформатика. 2013. Т. 8. № 1. С. 49–65. URL:

http://www.matbio.org/2013/Isaev_8_49.pdf (дата обращения: 29.04.2013).

Dart Е. Network Impacts of Data Intensive Science. Ethernet Technology Summit. 2012.

2.

3. Johnston W., Chaniotakis E., Dart E., Guok C., Metzger J., Tierney B. The Evolution of Research and Education Networks and their Essential Role in Modern Science. Trends in High Performance & Large Scale Computing. 2008.

4. Nowell M. Cisco Visual Networking Index (VNI). Global IP Traffic Forecast Update.

2010–2015. 2011.

5. Kipp S. Storage Growth and Ethernet. 2011.

6. HEP (High Energy Physics) Network Requirements Workshop, August 2009 - Final Report. In: ESnet Network Requirements Workshop. Eds. E. Dart, B. Tierney. 2009.

LBNL LBNL-3397E.

7. BER (Biological and Environmental Research) Network Requirements Workshop, April 2010 - Final Report. In: ESnet Network Requirements Workshop. Eds. E. Dart, B.

Tierney. 2010.

8. Inder Monga, Eric Pouyoul, Chin Guok. Software Defined Networking for big-data science. SuperComputing 2012. 2012.

Лахно В.Д., Исаев Е.А., Пугачев В.Д., Зайцев А.Ю., Фиалко Н.С., Рыкунов С.Д., 9.

Устинин М.Н. Развитие информационно-коммуникационных технологий в Пущинском научном центре РАН. Математическая биология и биоинформатика.

2012. Т. 7. № 2. С. 529-544. URL: http://www.matbio.org/2012/Lakhno_7_529.pdf (дата обращения: 10.02.2013).

Вычислительный кластер ПНЦ РАН. URL: http://www.jcbi.ru/klaster/index.shtml 10.

(дата обращения: 11.03.2013).

Объединенный центр вычислительной биологии и биоинформатики на базе 11.

Института математических проблем биологии Пущинского научного центра РАН. URL: http://www.jcbi.ru/index.htm (дата обращения: 11.03.2013).

Официальный сайт ИМПБ РАН. URL: http://www.impb.ru/ (дата обращения:

12.

16.03.2013).

Официальный сайт Межведомственного Суперкомпьютернго Центра РАН.

13.

URL: http://www.jscc.ru/ (дата обращения: 11.03.2013).

Суперкомпьютер «Ломоносов». Московский государственный университет 14.

имени М.В.Ломоносова. http://www.msu.ru/lomonosov/science/computer.html (дата обращения: 11.03.2013).

Думский Д.В., Исаев Е.А., Самодуров В.А. Локальная вычислительная сеть 15.

Пущинского научного центра. Препринт № 23. 2012.

Радиотелескопы ПРАО. Пущинская радиоастрономическая обсерватория. URL:

16.

http://www.prao.ru/radiotelescopes/telescopes.php (дата обращения: 16.03.2013).

Шацкая М.В., Гирин И.А., Исаев Е.А., Лихачев С.Ф., Пимаков А.С., Селиверстов 17.

С.И., Федоров Н.А. Организация центра обработки научной информации для радиоинтерферометрических проектов. Космические исследования. 2012. Т. 50.

№ 4. C. 346–350.

Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf ИСАЕВ и др.

Сайт проекта Радиоастрон. URL: http://www.asc.rssi.ru/radioastron/rus/index.html 18.

(дата обращения: 11.03.2013).

Сайт проекта «Миллиметрон». URL: http://www.radioastron.ru/ (дата обращения:

19.

11.03.2013).

Essers L. Фильтр секретов мироздания. Computerworld Россия. 2011. № 18.

20.

Официальный сайт проекта LOFAR. URL: http://www.lofar.org/ (дата обращения:

21.

11.03.2013).

Официальный сайт проекта SKA. URL: http://www.skatelescope.org/ (дата 22.

обращения: 11.03.2013).

Johnston W.E., McCool R. The Square Kilometer Array – A next generation scientific 23.

instrument and its implications for networks. TERENA Networking Conference. 2012.

URL: https://tnc2012.terena.org/core/presentation/44 (дата обращения: 29.04.2013).

24. IEEE 802.3 Industry Connections Ethernet Bandwidth Assessment. IEEE 802.3 Ethernet Working Group. 2012.

Листвин А.В., Листвин В.Н., Швырков Д.В. Оптические волокна для линий связи.

25.

М.: ЛЕСАРарт, 2003.

26. Dart E. Data Intensive Science Impact on Networks. IEEE Bandwidth Assessment Ad Hoc. 2011.

Официальный сайт проекта GANT. URL: http://www.geant.net (дата обращения:

27.

11.03.2013).

Официальный сайт проекта GANT2. URL: http://www.geant2.net/ (дата 28.

обращения: 11.03.2013).

29. Distributed European Infrastructure for Supercomputing Applications. URL:

http://www.deisa.org (дата обращения: 11.03.2013).

Официальный сайт проекта EGI. URL: http://www.egi.eu/ (дата обращения:

30.

11.03.2013).

Официальный сайт проекта EGEE. URL: http://www.eu-egee.org/ (дата 31.

обращения: 11.03.2013).

Проект EGEE-RDIG. URL: http://www.egee-rdig.ru (дата обращения: 11.03.2013).

32.

Вычислительная грид-сеть Большого адронного коллайдера.

33. URL:

http://wlcg.web.cern.ch/ (дата обращения: 11.03.2013).

Официальный сайт проекта Energy Sciences Network. URL: http://www.es.net/ 34.

(дата обращения: 11.03.2013).

U.S. Department of Energy's Office of Science. URL: http://science.energy.gov/ (дата 35.

обращения: 11.03.2013).

36. Advanced Scientific Computing Research Network Requirements Review, October 2012 - Final Report. In: ESnet Network Requirements Review. Eds. Dart E., Tierney B.

2012. LBNL LBNL-6109E.

37. Mehmet Balman, Eric Pouyoul, Yushu Yao, E. Wes Bethel Burlen Loring, Prabhat, John Shalf, Alex Sim, Brian L. Tierney. Experiences with 100Gbps Network Applications. In: The Fifth International Workshop on Data Intensive Distributed Computing (DIDC 2012). 2012.

Корпоративная сеть Российской академии наук.

38. URL:

http://www.jscc.ru/rasnet.shtml (дата обращения: 11.03.2013).

Ижванов Ю.Л. Федеральная компьютерная университетская сеть RUNNet. Итоги 39.

работы и перспективы развития. В: Совещание по развитию и повышению эффективности функционирования сети RUNNet. Великий Новгород: НовГУ, 2010.

Ижванов Ю.Л. Взаимодействие RUNNet с международными научнообразовательными сетями. В: Совещание по развитию и повышению Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161.pdf

НАУЧНЫЕ КОМПЬЮТЕРНЫЕ СЕТИ – ПРОБЛЕМЫ И УСПЕХИ В ОРГАНИЗАЦИИ ОБМЕНА ДАННЫХ

эффективности функционирования сети RUNNet. Великий Новгород: НовГУ, 2010.

Инфраструктура сети RUNNet. URL: http://www.runnet.ru/net/ (дата обращения:

41.

11.03.2013).

Гугель Ю.В., Ижванов Ю.Л. Федеральная компьютерная сеть RUNNet:

42.

инфраструктура и сервисы 2012. В: Труды XIX Всероссийской научнометодической конференции "Телематика-2012" (Санкт-Петербург, 25-28 июня 2012 г.). 2012.

Indiana launches new ultra-high-speed network. Сайт Университета штата 43.

Индиана. URL: http://uitsnews.iu.edu/2012/01/31/indiana-launches-new-ultra-high-speednetwork/ (дата обращения: 11.03.2013).

France Telecom-Orange and Alcatel-Lucent deploy world’s first live 400 Gbps per 44.

wavelength optical link (February 06, 2013). Официальный сайт компании France Telecom-Orange. URL: http://www.orange.com/en/press/press-releases/press-releasesFrance-Telecom-Orange-and-Alcatel-Lucent-deploy-world-s-first-live-400-Gbps-perwavelength-optical-link/ (дата обращения: 16.03.2013).

Официальный сайт проекта EPEG. URL: http://www.epegcable.com/ (дата 45.

обращения: 16.03.2013).

Состоялась передача по лазерному каналу реальной научной информации 46.

(29.01.2013). Официальный сайт Федерального космического агентства. URL:

http://www.federalspace.ru/main.php?id=2&nid=19846 (дата обращения: 16.03.2013).

The Laser Communications Relay Demonstration mission. Официальный сайт 47.

Американского аэрокосмического агентства. URL:

http://www.nasa.gov/mission_pages/tdm/lcrd/ (дата обращения: 16.03.2013).

48. High-Energy Physicists Smash Records for Network Data Transfer (11/21/2012).

California Institute of Technology. URL: http://www.caltech.edu/content/high-energyphysicists-smash-records-network-data-transfer (дата обращения: 16.03.2013).

World Record One Petabit per Second Fiber Transmission over 50-km. Официальный 49.

сайт компании NTT Group. 2012. URL:

http://www.ntt.co.jp/news2012/1209e/120920a.html (дата обращения: 16.03.2013).

Материал поступил в редакцию 22.04.2013, опубликован 30.04.2013.

Математическая биология и биоинформатика. 2013. Т. 8. № 1. URL: http://www.matbio.org/2013/Isaev_8_161 .pdf



Похожие работы:

«Приложение 2 к приказу ректора от 31.05.2010г. № 159 ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ БРАТС...»

«ТРБОО "Сибирское Экологическое Агентство" Кафедра начального и дошкольного образования ТОИПКРО Отдел духовно-нравственного воспитания ТОИПКРО "ХОЗЯИН СВОЕЙ ЗЕМЛИ" СБОРНИК ОБРАЗОВАТЕЛЬНЫХ ПРОГРАММ ПЕДАГОГОВ ДОШКОЛЬНЫХ ОБРАЗОВАТЕЛЬНЫХ ОРГАНИЗАЦИЙ ТОМСКОЙ ОБЛАСТИ Томск 2014 УДК 371.39.214.11 ББК 74.200.58 Х706 Х706...»

«42 ВЕСТНИК УДМУРТСКОГО УНИВЕРСИТЕТА 2014. Вып. 1 БИОЛОГИЯ. НАУКИ О ЗЕМЛЕ УДК 582.688.4-15(571.6) О.И. Молканова, Н.В. Козак, Л.Н. Коновалова, Е.В. Малаева БИОЛОГИЧЕСКИЕ ОСОБЕННОСТИ ДАЛЬНЕВОСТОЧНЫХ ВИДОВ РОДА ACTINIDIA LINDL. Представлены основные эт...»

«.00.04 – МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РА ЕРЕВАНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ХАЧАТРЯН ТИГРАН СЕРГЕЕВИЧ ВОЗРАСТНЫЕ ОСОБЕННОСТИ ИЗМЕНЕНИЯ КОНЦЕНТРАЦИИ ТИРЕОТРОПНОГО И ТИРЕОИДНЫХ ГОРМОНОВ В КРОВИ У КРЫС ПРИ СУБКЛИНИЧЕСКОМ ГИПОТИРЕОЗЕ АВТОРЕФЕРАТ диссертации на соискание учёной степени кандидата биологических на...»

«ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ЗДРАВООХРАНЕНИЮ И СОЦИАЛЬНОМУ РАЗВИТИЮ РОССИЙСКОЙ ФЕДЕРАЦИИ ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ ВОЛГОГРАДСКИЙ ГОСУДАРСТВЕННЫЙ МЕДИЦИНСКИЙ УНИВЕРСИТЕТ КАФЕДРА ТЕОРЕТИЧЕСКОЙ БИ...»

«УДК 574.5:579:551.35(262.5) Л.Л.Смирнова Научно-исследовательский центр Вооруженных сил Украины "Государственный океанариум", г.Севастополь МИКРОБИОЛОГИЧЕСКИЕ МЕТОДЫ ПРИ ЭКОЛОГИЧЕСКОМ МОНИТ...»

«КИРЕЕВ Максим Владимирович СИСТЕМНАЯ ОРГАНИЗАЦИЯ РАБОТЫ МОЗГА ПРИ ОБЕСПЕЧЕНИИ ЦЕЛЕНАПРАВЛЕННОГО ПОВЕДЕНИЯ Специальность: 03.03.01 – физиология ДИССЕРТАЦИЯ на соискание ученой степени доктора биологических наук Санкт-Петербург 2017 Оглавление 1. Введение 2....»

«Дулепова Наталья Алексеевна ФЛОРА И РАСТИТЕЛЬНОСТЬ РАЗВЕВАЕМЫХ ПЕСКОВ ЗАБАЙКАЛЬЯ 03.02.01 – Ботаника Диссертация на соискание ученой степени кандидата биологических наук Научный руководитель д.б.н., c.н.с., А.Ю. Королюк Новосибирск – 2014 ОГЛАВЛЕНИЕ ВВЕДЕНИЕ ГЛАВА 1. Материалы и методы исследования 1.1. Ра...»

«Научно-исследовательская работа Тема работы Воздействие микроволн на живые организмы.Выполнил: Тарасов Егор Александрович учащийся 7 класса Государственного бюджетного общеобразовательного учреждения средней общеобразо...»

«1. Цель освоения дисциплины Целью освоения дисциплины "Экология" является формирование у студентов навыков устанавливать причинную обусловленность негативных воздействий деятельности человека на окружающую среду и разрабатывать систему мероприятий по их ограничению и предотвращению; определять характер, направленность и последс...»

«МИНИСТЕРСТВО СЕЛЬСКОГО ХОЗЯЙСТВА РОССИЙСКОЙ ФЕДЕРАЦИИ Федеральное государственно бюджетное общеобразовательное учреждение высшего профессионального образования "КУБАНСКИЙ ГОСУДАРСТВЕННЫЙ АГРАРНЫЙ УНИВЕРСИТЕТ" С. Б. Криворотов География растений Методические указания для проведени...»

«2 1. Аннотация Кандидатский экзамен по специальной дисциплине для аспирантов специальности 03.03.01физиология проводится кафедрой "Физиологии и этологии животных". Общая трудоемкость кандидатского экзамена составляет 1 зачетную еди...»

«Бюллетень Никитского ботанического сада. 2008. Вып. 97 75 ИЗМЕНЧИВОСТЬ СОДЕРЖАНИЯ И КОМПОНЕНТНОГО СОСТАВА ЭФИРНОГО МАСЛА OCIMUM BASILICUM L. Ю.П.ХРИСТОВА Никитский ботанический сад – Национальный научный центр Введение Из года в год растет интерес к проблеме рациона...»










 
2017 www.lib.knigi-x.ru - «Бесплатная электронная библиотека - электронные материалы»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.