Елена Чуракова ("Т-Платформы") о российских суперкомпьютерах и выходе на западный рынок

Автор: Юрий Ильин

Опубликовано 01 ноября 2010 года

- Когда Т-Платформы появились на свет, и с чего они начинали?

- "Т-Платформы" образовалась в 2002 году в самом конце, в сентябре, называлась компания в ту пору "TYAN-Платформы". Изначальный замысел состоял в том, чтобы продвигать на российский рынок серверы на базе платформ TYAN. Но чрезвычайно быстро стратегия поменялась, и поменялась кардинально. Оказалось, что серверных платформ от одного поставщика мало, а кроме того, подошли к завершению некоторые исследования, которые глава компании Всеволод Опанасенко проводил касательно того, какие ниши вообще свободны на российском IT-рынке, и он посчитал возможным и необходимым развивать в России верхний сегмент рынка, который на тот момент в общем-то развит здесь не был совсем.

Так TYAN-платформы превратились в Т-Платформы, от TYAN осталась одна буква. Тогда в России верхний сегмент был очень мал - даже не уверена, что его вообще можно называть сегментом. Было несколько крупных поставок различных систем - в основном это были "супердома" и мейнфреймы IBM. Но, учитывая динамику развития аналогичного рынка на Западе и рост применения там кластерных систем, Всеволод увидел большие возможности в этой области, и, собственно, со строительства этих кластерных систем и началась наша деятельность.

В 2003 году мы уже сделали для государственной российско-белорусской программы "СКИФ" в сотрудничестве с другими исполнителями программы первый большой суперкомпьютер. Тогда это действительно был суперкомпьютер, он даже попал в Top500, правда, оказался он на 407 месте, но всё-таки для России это была крупнейшая установка, в России до сих пор такого не было.

- А для чего он создавался и применялся?

- Для каких приложений, вы имеете в виду?

- Да.

- Это хороший вопрос. В то время в программе было предусмотрено, помимо собственно создания систем, разработка и развитие нескольких параллельных приложений - тогда это было совершенно новое направление, параллельных приложений русской разработки практически не существовало . По этой программе было создано несколько десятков приложений, которые все запускались на этой машине. Направления - климат, безопасность, аэро-космические исследования, ядерная физика, обработка результатов дистанционного зондирования Земли, молекулярная химия и так далее.

Там были, скажем, такие задачи, как прогноз ветрового переноса загрязнений при лесных пожарах, там были такие задачи, как распараллеливание одной из климатических моделей, которые Гидромет использовал, - модель Лосева, предпринимались попытки использования параллельного ANSYS - пакета инженерных расчётов прочности. В частности, "КАМАЗ" симулировал столкновение кабины грузовика с препятствиями для оптимизации прочностных характеристик конструкции.

Были и весьма забавные, казалось бы, задачи - так, для белорусской легкоатлетической женской сборной проектировались бюстгальтеры: рассчитывали оптимальные характеристики упругости материала. В общем, взяли весьма широкий спектр задач.

Этих усилий, конечно, было недостаточно для того, чтобы в России немедленно появилось большое количество промышленных приложений, которые могли бы работать на параллельных машинах. Промышленные приложения разрабатывались на Западе десятки лет, они активно используются в мире, и степень их параллелизма постепенно растет. Расчет был на то, что весьма многообещающий тогда промышленный сегмент начнёт использовать эти готовые параллельные приложения и применять их для новых разработок. Процесс оказался долгим и сложным.

Для начала у нас промышленность не очень-то пользуется и обычным CAD'ом, не говоря уж о компьютерном инженерном анализе(CAE), где требуются высокопроизводительные вычисления. Не так много изделий проектируется в цифровом виде. Президент в этом году сказал: "Первый самолет, который мы выпускаем в цифре, это "Сухой Суперджет". - то есть, это одно из первых крупных отечественных промышленных изделий, созданных на основе цифровых моделей, а не на ватмане.

В общем-то даже на Западе компаниям, которые давно используют CAD и PLM, не так просто перейти на HPC (высокопроизводительные вычисления). Для того, чтобы начать использовать эти технологии, надо переделать определённым образом - и иногда очень глубоко - весь процесс R&D на предприятии. А это тяжело. Специалисты, которые владеют расчётными технологиями, растятся не один год, естественно.

Забегая вперёд, скажу, что видя эту сложность в развитии сегмента HPC, мы создали в 2009 году дочернюю компанию, которая занимается предоставлением HPC как аутсорсинговой услуги полного цикла. - Далеко не все могут позволить себе собственный суперкомпьютер, и не каждому это нужно: это достаточно дорогое оборудование и ПО, которое нужно постоянно поддерживать, апгрейдить, и TCO достаточно высоко.

Такая машина потребляет довольно много электричества, она требует больших площадей, специфической инфраструктуры, и иногда на проекте суперкомпьютерные вычисления требуются в общей сложности скажем только 3 месяца в году. Ведь процесс проектирование у людей зачастую не сразу меняется революционно - некоторые его части сильно ускоряются с помощью масштабных вычислений, если люди имеют достаточно экспертизы чтобы такую масштабную модель разработать. Цикл R&D сокращается, но во всём цикле PLM высокопроизводительные вычисления - это не 90%.

Поэтому часто люди могут выиграть от возможности арендовать суперкомпьютерные мощности вместе с прикладным ПО для CAE, когда это необходимо, и "Т-Сервисы" предоставляет такую возможность. Однако в случае "Т-Сервисов" речь идёт не только и не столько об аренде, потому что наиболее эффективно - то есть так, чтобы деньги отбивались, - этой арендой пользуются только люди, которые хорошо владеют методиками суперкомпьютерного моделированияи прикладным ПО. Поэтому "Т-Сервисы" делает полный цикл расчётов: строит модель, подбирает ПО, интерпретирует результаты анализов и предоставляет рекомендации, которые следуют из этих результатов.

- То есть в "Т-Сервисах" есть специалисты, которые глубоко разбираются во всех направлениях, которые связаны с высокопроизводительными вычислениями?

- Ну, таких компаний, в которых есть специалисты, разбирающиеся вообще во всех областях, нет, и неизвестно, когда появится. У нас есть костяк сильных специалистов, имеющих большой опыт решения инженерных и промышленных задач - это три большие сферы: гидродинамика, газодинамика и прочностные расчёты. У нас есть специалисты по этим трём направлениям. Сейчас мы развиваем био- и нанонаправления, благодаря проекту, который мы выполняем для РОСНАНО.

В рамках проекта мы должны решить не менее 40 расчетных и модельных задач, половина из которых предназначены для разработок области нано. Свою заявку на решение задачи могут подать не только промышленные предприятия, но и исследовательские организации, при этом Роснано частично финансирует все услуги. Мы проводим конкурентный отбор этих заявок, который продлится до конца ноября, и готовим наиболее перспективные для Экспертного совета Роснано, который утверждает задачи к решению. Мы уже обработали 53 заявки, из них 10 приняты к решению, и очень скоро будет обсуждаться новая порция.

Возвращаясь к истории компании, должна сказать, что первая машина СКИФ К500 потребовала достаточно серьезных собственных разработок. Платы были готовыми, конечно, но, по требованию заказчика, в платформу нужно было интегрировать весьма специфический интерконнект, а также дополнительную отечественную сервисную сеть, а по тем временам это было достаточно серьёзной инженерной разработкой. Белорусские исполнители разработали собственные стойки для этой машины. Так что нельзя сказать, что это были просто купленные платформы, вставленные в шкаф и соединённые проводками. Там всё было несколько сложнее.

У нас в этот период были и другие поставки, но более мелкие, поскольку ничто не может сравниться по размеру с государственными заказами - для того, чтобы появился спрос на машины, кто-то должен на них посмотреть; никогда не бывает такого, чтобы просто кто-то пришёл и сказал: мне поставьте вот такое. Во всём мире самые крупные установки являются государственными заказами. Так было и будет всегда.

Следующей нашей крупной установкой по той же программе СКИФ был "СКИФ К1000" (2004 года). Он был уже в первой сотне Top500, 98-е место. Это были смешные по нынешним временам два терафлопа, но тогда это была первая сотня списка самых мощных компьютеров мира. За очень недолгое время производительность суперкомпьютеров сильно выросла - до этого темпы роста были куда ниже.

Это была платформа нашей собственной разработки, мы подбирали оптимальные компоненты, проводили улучшения системы охлаждения, и получили патенты на полезные модели платформ. Могу сказать, что разработки собственно плат не производилось, за исключение сервисной сети. Платы брались стандартные, но подбор, обеспечение совместимости и эффективной работы стандартных компонентных решений требовали определённой экспертизы, которая есть у производителей серверных платформ, и те исследования, которые мы проводили в то время, позволили нам ее усилить.

Следующей вехой стал 2006 год, когда мы поставили большой суперкомпьютер СКИФ-Cyberia, 12-терафлопный. По сути дела это не было уже программой СКИФ, а СКИФ-Грид ещё не был принят.

В тот момент мы уже почувствовали внимание государства к суперкомпьютерной отрасли. Понятно, что работа велась давно, но это был такой первый момент, когда на открытие СКИФ-Syberia приехал Председатель Госдумы Борис Вячеславович Грызлов, и к установке привлекли большое внимание.

Но это не вылилось в немедленные инвестиции государства в суперкомпьютинг. Да, они заинтересовались темой, для рынка это стало знаковым событием - в смысле, стало в каком-то смысле официально признано, что рынок суперкомпьютеров существует. Но пристальное внимание к этой отрасли начинается только сейчас.

В конце 2006 года мы впервые сделали собственную блейд-платорму. Почему? 1U-платформы - это, конечно, хорошо, но размер установки, которую можно собрать на U-платформах, конечно, очень ограничен, потому что это не слишком высокая плотность вычислений (количество терафлопс на место в стойке), это много проводов, много шкафов, а это высокое тепловыделение, и просто неоптимальная коммуникация между процессорами, большие задержки при обмене данными. Так что для HPC всё чаще стали применять блейды, хотя разрабатывались они изначально не для этого, а для энтерпрайза.

Первая наша блейд-система - это и первая российская блейд-система, до этого никто из наших интеграторов не пытался сделать что-то подобное. Это была первая серьёзная инженерная разработка на тот момент. Она была очень плотной, плотнее, чем у IBM и HP - то есть, на той же площади помещалось большее количество процессоров, чем у конкурентов. Но, это все еще были стандартные платы, стандартная память, стандартный интерконнект - просто всё это было грамотно скомпоновано и уложено. Под заказ были сделаны корпуса блейд-модулей и шасси, которые интегрировали компоненты в единое целое.

В 2008 году, в конце, мы представили новое поколение блейд-систем для HPC, где все платы были уже разработаны нами. Единственное, что было не нашим - микросхемы (процессор и контроллеры интерконнекта прежде всего). Даже модули памяти были наши собственные - то есть, сами чипы стандартные, иначе не было никакой возможности обеспечить совместимость с широким спектром приложений, если у вас собственные чипы памяти или, не дай бог, собственный процессор с другой архитектурой. Кто будет пользоваться этой машиной?

Те институты, которые разработали, скажем, на пару один большой программный пакет и работают только на нем, могут, конечно, позволить себе такие вещи как нестандартные процессоры и память, созданные специально под приложение - такие разработки были и до сих пор ведутся в единичных случаях. Бюджетирование таких организаций конечно взлетает к потолку. Но у нас-то такого нет. Поэтому, конечно, очень важно, чтобы память и процессоры были стандартными, что и осталось... И резисторы с транзисторами собственные разрабатывать никакого смысла конечно не было.

Но зато все электронные платы, которые обеспечили самую высокую на тот момент по отрасли плотность установки, были нашими разработками. И коммутаторы интерконнекта, которые были интегрированы в шасси, тоже были разработаны нами. В основе лежали технологии Mellanox, но платы были разработаны новые.

Высокую плотность удалось обеспечить во многом за счет эффективной системы охлаждения, которую мы разработали. Каждая плата выделяет около 570КВт тепла, и никто не пытался охлаждать такое решение воздухом. Люди экспериментировали и до сих пор экспериментируют с водой, но воздушное охлаждение с такой плотностью не проходило. А мы сделали радиатор, который полностью накрывает всю плату целиком, радиатор моделировали на суперкомпьютере.

Это действительно приходится моделировать, потому что непонятно, из какого материала и как он должен быть устроен, и какую конфигурацию он должен иметь, и в каком месте сколько и чего у него должно быть, чтобы нормально отводилось тепло, и при этом радиатор не был слишком тяжелым.

Мало кто задумывается о том, сколько весит вся эта установка, но если шасси слишком тяжелые - это не практично, потому что фальшполы приходится укреплять, в частности, очень сильно - это дополнительные расходы и не в каждом месте это вообще можно сделать. Поэтому, мы как могли старались сделать оптимальное соотношение между теплопроводимостью в нужных местах и весом.

И до сих пор эта разработка прекрасно нам служит, потому что и наше последнее гибридное решение на NVidia, которое мы показали буквально только что на GTC в Америке,использует тот же самый принцип - это тоже воздушноохлаждаемое шасси с подобным радиатором. Он модифицированный естественно, там другое расположение процессоров и других микросхем на плате, но принцип прекрасный, потому что получилось уместить 32 новейших процессора NVidia Tesla и 32 процессора Intel в шасси высотой 7U, что на GTC люди восприняли очень хорошо, потому что такого больше нет ни у кого. И при этом, воздушное охлаждение...

Следующая после 2006 года, наверное, самая мощная установка была уже в МГУ. Суперкомпьютер "Чебышев" –был создан в рамках программы "СКИФ ГРИД" . Собственно, это самая большая установка, которая была по этой программе создана – это "Чебышев" производительностью 60 терафлопс, который попал на 105е место в TOP-500. Мог стоять выше, но он попал в список только через полгода после установки.

Следующим этапом стал "Ломоносов". "Ломоносов" - это уже собственно приобретение МГУ, не связанное никак с Союзным Государством. Сейчас мы расширям его до 500 с лишним терафлопс, и уже объявлен конкурс на вторую очередь этой машины, где будет 800 терафлопс с гибридной архитектурой. Мы в ближайшее время подаем заявку на участие в нем с нашей новой системой на NVidia, которая называется TB2-TL. Обе очереди этой машины будут объединены единой системной сетью, и он сможет функционировать как единая система мощностью более петафлопса - это будет первая установка с такой производтельностью в России и одна из пока очень немногих в мире.

- А графические процессоры по сравнению с обычными, они какие преимущества имеют, в плане HPC?

- Один графический процессор дает примерно в 4 раза больше пиковой производительности на операциях с двойной точностью, чем обычный, потребляя не сильно больше электричества. В результате имеем в 4 раза более производительную систему с тем же энергопотреблением и примерно той же ценой - гораздо выгоднее для заказчика. Высокая энергоэффективность, то есть хорошее соотношение производительности на ватт потребляемой энергии, сейчас очень важна в отрасли, так как размер систем увеличивается быстро, а энергетические ресурсы в основном ограничены.

Графические процессоры не применялись для HPC изначально, так как раньше они обеспечивали высокую производительность только на операциях с одинарной точностью, которой достаточно, например, для обработки видео, но недостаточно для HPC, где требуется двойная точность и коррекция ошибок. Однако Nvidia его усовершенствовали, и теперь он дает больше пиковой производительности на операциях с двойной точностью чем процессоры с архитектурой x86. Из этого получается две вещи: во-первых, вы можете в один шкаф уместить больше терафлопсов, а во-вторых, вы получаете феноменальное соотношение производительности к энергопотреблению, которое напрямую зависит от плотности.

У нас в стойке с этим решением получается 105 Тфлопс пиковой производительности, тогда как для процессоров х86 это максимум 27Тфлопс. И энергоэффективность получается 1450 мегафлопс на ватт, что на данный момент почти вдвое лучше, чем у самой эффективной на данный момент системы в мире согласно списку Green500, где суперкомпьютеры рейтинга Тор500 ранжируются не по производительности, а по соотношению флопс на ватт.

Это не столько модная тема, сколько действительно технологическая необходимость по одной простой причине: дальнейшее расширение производительности систем, к которому все стремятся, невозможно без принципиально новых решений для улучшения энергоэффективности систем.

Сейчас бессмысленно пытаться строить суперкомпьютер мощностью в экзафлопс (в 1000 раз мощнее чем сейчас) не только потому, что к такой масштабируемости не готовы программные пакеты, но и потому, что такая машина будет иметь энергопотребление сравнимое с потреблением небольшого города.

Эксперты американского Министерства Энергетики, которое поддерживает разработки в области экзафлопс, поставили определенный предел энергопотребления для таких систем - 20 мегаватт. Но при тех технологиях, которые сейчас есть, с учетом их прогнозируемого развития, мы сильно не дотягиваем до этого порога. Экзафлопс будет потреблять на порядок больше, если не будет придумано что-то кардинально другое.

Поэтому, все разработки сейчас направлены на то, как снизить энергопотребление и увеличить вычислительную мощность, которую мы получаем за эту энергию.

Сейчас эффективность лучшей системы в мире - 773 Мегафлопс на ватт. Это система в Суперкомпьютерном центре Юлиха в Германии с очень специфической архитектурой на базе процессоров Cell, которые совместимы с довольно узким спектром приложений и на данный момент больше не выпускаются. Nvidia сейчас обходит всех по этому параметру, но его совместимость с существующими приложениями, конечно, тоже ограничена, хотя и не так сильно.

Приложения нужно адаптировать к архитектуре графических процессоров, хотя в случае с NVidia и средой разработки CUDA это проще, чем с Cell. От того, как разработчик ПО использовал эту архитектуру, ее особенности и возможности, зависит, насколько большое ускорение своих расчетов он реально получит. Сейчас количество адаптированных к NVidia приложений набрало некоторую критическую массу, на наш взгляд, и сентябрьская выставка GTC в Америке это подтвердила. Самый популярный инженерный пакет ANSYS, например, для некоторых задач обеспечил поддержку Tesla, и многие другие вендоры активно движутся в этом направлении.

- А помимо МГУ кто сейчас ваши основные заказчики?

- Пока это в основном университеты и исследовательские институты. В У вузов всегда был высокий интерес к новому оборудованию, у них есть время и человеческие ресурсы чтобы осваивать новые решения. К счастью, например, в 2006 году вузы получили возможность приобретать суперкомпьютеры благодаря поддержке государства: была специальная программа, по которой вузы могли получить средства на развитие инновационных программ, многие из которых включали развитие в области высокопроизводительных вычислений. Томский ГУ был одним из таких вузов и многие их них стали нашими клиентами. Конечно, суперкомпьютерами пользуются и другие государственные организации, которые, например, ведут исследования в области безопасности.

У нас есть и база промышленных заказчиков - это такие предприятия как ЛМЗ, ОКБ "Сатурн", нефтесервисная компания и разработчик ПО для нефтеразведки Paradigm Geophysical, ЦНИИ им. Крылова, с которым мы сейчас сотрудничаем по линии "Т-Сервисов", недавно появились новые заказчики из нефтедобывающего сектора в Казахстане. Однако промышленных заказчиков пока не так много, и это чаще всего КБ и НИИ, а не собственно производственные компании.

Это обусловлено тем, что у коммерческого сегмента с HPC в Росси пока не очень складываются отношения. Пока этими технологиями пользуются те немногие предприятия, которые активно занимаются новыми разработками на мировом уровне. Таких немного, и у некоторых из них давно сформировалась такая вещь, например, как корпоративный стандарт вендора в IT. Например, на предприятии могут стоять рабочие станции IBM либо HP, а также масса другого оборудования, которое производят эти компании. В этом случае за суперкомпьютером они скорее всего обратятся к тому же вендору.

Тем более, если им для промышленных задач не нужна в настоящий момент сверхпроизводительность, высокая плотность или энергоэффективность. Они могут купить стандартную среднюю систему и соответствовать "корпоративному стилю". Наша специализация - это все-таки hi-end, это нечто новаторское, чего не делают другие вендоры, нечто, что тем, кто ставит для себя амбициозные цели в суперкомпьютинге.

Мы, правда, развиваем сейчас и линейку продуктов в среднем диапазоне производительности - там где сейчас лидируют HP, Dell, Supermicro. В будущем году мы выводим на рынок сразу несколько решений для этого сегмента, с очень хорошим соотношением цены и производительности, а также мини-суперкомпьютер в настольном форм-факторе.

В России, собственно говоря, как и во всем мире, существует очень широко сейчас обсуждаемая тема, которую называют missing middle (недостающая середина). Средние и менее производительные решения в основном для них. Это множество компаний, которые применяют компьютерное проектирование, но не перешли еще на высокопроизводительные вычисления. Но, как я уже говорила, для того, чтобы облегчить им этот переход, просто эффективных с точки зрения цены аппаратных решений недостаточно.

В Америке есть сразу несколько механизмов, помогающих компаниям - в основном они касаются доступа к большим суперкомпьютерам на конкурсной основе. В Европе есть свои механизмы. Еврокомиссия например поддерживает масштабный многолетний проект под названием PRACE, в рамках котрого должна быть построена новая европейская суперкомпьютерная инфраструктура и обеспечен доступ к ней, в частности, для промышленности. Науку в этом смысле они поддерживают давно. Например по программе HPC Europa Еврокомиссия оплачивает суперкмопьютерным центрам процессорные часы и некоторые консалтинговые услуги для исследований, которые по конкурсу получили право на использование той или иной машины, а также оплачивает проживание и транспротные расходы для исследователей.

Любой исследователь может подать заявку на проведение исследования на любой машине в Евросоюзе, и получить грант на работу в выбранном суперкомпьютерном центре. PRACE также пытается привлечь промышленность к использованию академических суперкомпьютерных центров, но рабочих механизмов такого рода, удобных для промышленных компаний, пока очень мало.

В Европе есть небольшое количество центров, которые традиционно много считают для промышленности. В Штуттгарте есть государственный суперкомпьютерный центр HLRS, например, который специализируется на промышленных заказчиках. Но он предоставляет только процессорные часы - даже ПО заказчики устанавливают свое. И у него достаточно узкая клиентская база: основные заказчики сейчас это Porsche и Airbus.

- В пресс-релизе о выделении Внешэкономбанком средств говорится, что это сделано с целью выхода на западный рынок. Для чего "Т-Платформам" выходить на западный рынок?

- Дело в том, что в России пока нет уже работающих на данный момент программ, которые нацелены на разработку суперкомпьютерных технологий, как в США и Европе. В Америке их несколько, и там общее финансирование этих программ измеряется миллиардами. Crayи IBM, например, только по одной из программ агентства DARPA получили по 250 млн долларов на новые аппаратные разработки – в результате чего появился, например, суперкомпьютер RoadRunner, который впервые в мире преодолел петафлопсный барьер производительности. У нас такого нет, поэтому, чтобы вкладывать достаточное количество денег в R&D, нужно иметь достаточно большой оборот.

Чтобы его достичь, нужно оперировать на достаточно крупном рынке, большой рынок, где есть не только отдельные крупные сделки, но много и небольших, от реализации которых можно получать определенный стабильный приток средств в течение всего года. У нас рынок устроен в этом смысле не слишком удачно, не только из-за меньшего размера. Большинство крупных государственных и академических тендеров у нас проходят под конец года. Сейчас ситуация совсем жёсткая: конкурсы объявляются в последний момент, и чуть ли не через месяц или два нужно все поставить.

А многие академические тендеры сейчас играются к тому же на условиях полной постоплаты, без авансового платежа. То есть, чтобы поставить систему, мы должны сначала прокредитовать государство на стоимость этой системы. В таких условиях тяжело, практически невозможно работать, Чтобы получить стабильный приток средств, необходим более развитый рынок, где на регулярной основе проводится прогнозируемое количество трендоров, в которых можно участвовать и делать поставки весь год. Именно для этого нам нужен Европейский и мировой рынок - без этого мы не сможем достаточно много средств вкладывать в разработки.

- А не опасаетесь, что на Западе все и так заселено достаточно плотно?

- Нет. В принципе, было бы логично предположить, что там уже все занято, но не все так просто, потому что в Европе, например, количество локальных вендоров, разрабатывающих собственные технологии, очень мало. Фактически на Европейском рынке мы конкурируем с американскими вендорами, а также такими производителями как Bull и Eurotech. Правда, последний появился совсем недавно, и инсталляций в Европе пока нет, а Bull - компания с очень широким спектром продуктов и услуг, традиционно сильная в других сегментах IT-рынка и пока не разрабатывающая решений, специализированных для HPC, особенно для верхнего сегмента.

Поэтому европейское сообщество пользователей, как показали наши переговоры, заинтересовано в появлении альтернативного вендора, и нас они зачастую воспринимают скорее как европейцев - лучше, чем американцев или компании из Юго-Восточной Азии, например. Для них очень важно то, что мы готовы вкладываться в разработку европейских технологий. Например, это касается нашего сотрудничества с Университетом Гейдельберга для выпуска на рынок нового интерконнекта, специализированного для сверхбольших суперкомпьютерных установок.

У нас не было серьезных планов на Америку до выставки GTC. Однако на выставке некоторые крупные заказчики проявляли достаточно серьезную готовность купить решение на базе TB2-TL, для того, чтобы опробовать новую перспективную технологию. И видя живой интерес, мы, конечно, не исключаем возможности выхода на американский рынок, хотя для выхода туда нужно будет решать много вопросов, в том числе и с поддержкой.

- У вас получается такая ситуация, что раз "нет пророка в своем отечестве", то - возвратимся оттуда?

- Да, именно так. Мы пока не можем на российском рынке получать достаточный доход, чтобы продолжать интенсивно развиваться. Получается замкнутый круг. С одной стороны мы ставим себе задачу максимально стимулировать рост отечественного суперкомпьютерного рынка и развитие отечественных технологий. Но создание новых технологий - гораздо более затратная вещь, чем чисто интеграторские проекты на базе готовых решений, уже разработанных кем-то другим. Поэтому в нашей ситуации мы должны выйти на западный рынок, чтобы продолжать создавать российские разработки. По-другому просто не получается.

Кроме того, экспорт российских технологий на Запад принесет пользу не только Западу, но и России. Например, работая с западными заказчиками мы имеем возможность непосредственно наблюдать, как люди используют HPC-системы на практике, и переносить этот опыт и методы в Россию. Это позволит нам предлагать предприятиям оптимальную стратегию развития HPC для их задач, которая будет базироваться на готовом опыте; лучше объяснить и показать, какие выгоды они получат. Потому что даже если у предприятия есть деньги, оно должно иметь возможность просчитать уровень возврата инвестиций, чтобы вложить их в HPC, особенно если речь идет не о настольном "персональном кластере". И просчитать его гораздо проще, если есть доступ к аналогичному опыту.

Для вузов и исследовательских организаций это тоже может быть полезно, так как Европа сейчас заинтересована в совместных разработках, в том числе в сфере высокопроизводительных вычислений, и мы можем здесь служить своего рода проводником. Еврокомиссия, например, с нетерпением ждет того момента, когда сотрудничество с Россией в области исследований и разработок приобретет более реальные очертания и принесет успешные результаты. Наша активность в Европе и усилия, которые мы предпринимаем, чтобы связать европейских и российских пользователей HPC, может послужить поводом к тому, чтобы начать заново, с новой точки.