• Дмитрий Вибе (ИА РАН) об астрофизических измерениях Алла Аршинова
  • Сергей Анурьев («ЛитРес») об электронном книгоиздании Юрий Ильин
  • Отец мультитача о будущем интерфейсов Андрей Письменный
  • Астрофизик Сергей Попов о гравитационных волнах Алла Аршинова
  • Интервью

    Дмитрий Вибе (ИА РАН) об астрофизических измерениях

    Алла Аршинова

    Опубликовано 29 ноября 2010 года

    Научное знание копится веками. В стремлении постичь мир ученые строят гипотезы и теории, проектируют и воплощают в жизнь сложнейшие научные установки. В естественных науках все можно проверить экспериментом. Практически весь мир (условно, конечно) можно поместить в научной лаборатории. Именно здесь решаются проблемы медицины, физики, химии, биологии, генетики и других наук. Но есть нечто, что никогда не поместится ни в одну лабораторию мира. Это — наша Вселенная. «Эксперименты» с ней может проводить только сама природа, а человеку остается лишь наблюдать за этим процессом.

    Астрономия, наука о строении, развитии и структуре небесных тел и Вселенной, стоит особняком среди естественных наук, так как ей недоступны прямые эксперименты, и строить свои теории она может, лишь отталкиваясь от наблюдательной базы. Тем не менее мы знаем, что такое звёзды, как движется межзвёздное вещество, почему и как Вселенная расширяется и другие, немыслимые для обывательского понимания вещи.

    На чем основано это знание? Насколько оно надёжно и обоснованно? На что опирается астрономический научный аппарат? О методах астрофизических измерений мы разговаривали с доктором физико-математических наук, ведущим научным сотрудником Института астрономии РАН Дмитрием Вибе.


    - Дмитрий Зигфридович, насколько обоснованно сегодня разделение астрофизики на наблюдательную и теоретическую?

    - Это разделение присуще всем естественным наукам, и астрономия (астрофизика) — не исключение. Общий принцип работы незыблем: наблюдатель при помощи телескопов собирает информацию, теоретик при помощи моделей пытается понять, что она означает. При этом современный телескоп — это устройство, очень сложное в технологическом плане, и без должной квалификации невозможно ни составить план наблюдений, ни провести их, ни обработать потом результаты.

    Астрофизические модели также очень сложны, поскольку моделировать приходится очень сложные реальные объекты. Поэтому даже в простой модели зачастую сочетаются в той или иной степени чуть ли не все отрасли современной физики. Поэтому быть одновременно и хорошим наблюдателем, и хорошим теоретиком одному человеку невозможно. С другой стороны, конечно, наблюдатель должен иметь представление о теоретических моделях (чтобы наблюдать то, что нужно для их подтверждения или опровержения, а не то, что удобно наблюдать), а теоретик должен иметь представление о возможностях современных телескопов (чтобы результатом моделирования была не красивая анимация, а реально проверяемое предсказание).

    - Астрономия вообще и, в частности, астрофизика, развивается стремительнее многих других наук. С чем это связано? Что является двигателем прогресса в этой науке?

    - Двигателем прогресса в астрофизике, как ни скучно это прозвучит, является развитие технологий. За последние несколько десятилетий (начиная, скажем, с середины прошлого века) астрофизическая картина мира претерпела кардинальные изменения. При этом собственно физическая основа астрофизических моделей за это время проэволюционировала не столь значительно. До сих пор в профессиональной литературе в ходу имена Кеплера, Ньютона, Эйлера, Максвелла... Но вот техника наблюдений и моделирования изменилась неимоверно. Соответственно, грандиозно вырос объём информации о Вселенной, которую мы в состоянии получить и обработать. Главное достижение состоит, пожалуй, в том, что у нас появилась возможность проводить наблюдения во всём диапазоне электромагнитных волн — от гамма-излучения до радиоволн. Да и компьютерная техника заметно «подросла». Первые численные модели астрофизических процессов в 1960-е годы выполнялись на компьютерах, которые в современном мире по мощности могли бы конкурировать разве что с мобильниками.

    Если же говорить более конкретно, то большой вклад в развитие астрофизики внесла гонка вооружений. Многие численные гидродинамические модели, физические базы данных попадали в астрофизику из Лос-Аламоса и других подобных учреждений. Не для астрофизических нужд разрабатывались изначально такие прорывные технологии, как адаптивная оптика и детекторы жёсткого излучения. Некоторые важные астрофизические явления и объекты (гамма-всплески, инфракрасные тёмные облака) были обнаружены при помощи военных спутников.

    - Каждая наука имеет свою методологию. Какие есть особенности у методологии астрофизики?

    - Можно, пожалуй, выделить две ключевые особенности: невозможность проведения запланированного эксперимента и возможность наблюдения исследуемых объектов только с одной стороны. Физик (как правило) имеет возможность так построить эксперимент, чтобы в нём наиболее выпукло проявлялся какой-то специфический процесс. В астрофизике эксперимент ставит Природа, которая нимало о нуждах исследователя не заботится. Допустим, физик хочет в деталях исследовать колебания маятника. Он сделает его из немагнитного материала, поместит на жёстком подвесе в суперизолированное помещение, откачает воздух, поставит десять камер, чтобы следить за маятником с разных ракурсов. В астрофизике тот же маятник будет сделан из материала с неизвестными магнитными свойствами, помещён в магнитное поле, подвешен на резинке, с одной стороны на него будет налетать поток газа, с другой — космические лучи, и наблюдать всё это можно будет только с одной стороны, как правило сбоку в плоскости колебаний.

    Ещё один важный фактор — разнообразные эффекты наблюдательной селекции, суть которых сводится к тому, что внимание наблюдателя привлекают, в первую очередь, наиболее яркие и, как следствие, наименее типичные объекты.

    Из-за этих ограничений в астрофизике к теоретической интерпретации наблюдений приходится подходить особенно жёстко. В частности, обязательно необходимо проверять, насколько предлагаемое объяснение согласуется с данными из других отраслей астрофизики. Это в общем тоже ложится на учёного дополнительным бременем: он не может позволить себе разбираться только в своей узкой области.

    - В астрономии много разделов, какой из них самый сложный в смысле получения информации?

    - Да в общем-то ни один из этих разделов особой лёгкостью не отличается. Но самые значительные сложности, наверное, у космологов. Им приходится иметь дело с очень большим объектом, и для выявления каких-то закономерностей необходимо с высоким качеством наблюдать если не всё небо, то по крайней мере значительные его участки, причём с

    использованием космических обсерваторий. Эта задача всё ещё остаётся очень ресурсоёмкой.

    - Каким инструментарием обладает астрофизика? Каким образом, наблюдая свет от удаленных звёзд, астрофизики определяют их параметры?

    - Практически единственный источник информации о космических объектах — это электромагнитное излучение. Конечно, есть ещё космические лучи и нейтрино, но по информативности они со светом конкурировать не смогут ещё очень долго. Поэтому в основе астрофизического инструментария лежит, с одной стороны, необходимость зарегистрировать электромагнитное излучение, с другой стороны, необходимость понять, как оно было сгенерировано.

    К счастью, электромагнитное излучение буквально напичкано информацией. Эта информация зашифрована в виде спектра — распределения энергии излучения по частотам. Общая форма спектра зависит от температуры объекта: чем объект горячее, тем дальше максимум его излучения сдвинут в область больших частот (очень горячие объекты светят в рентгеновском и гамма-диапазонах, очень холодные — в инфракрасном и миллиметровом диапазонах), сдвиг спектральных линий относительно «лабораторного» положения говорит о скорости движения вещества по лучу зрения, ширина спектральных линий — о температуре и плотности вещества. По интенсивности различных линий одного и того же элемента можно определить его содержание и состояние ионизации.

    - Предположим, природу звёзд еще можно постичь. А как быть с более абстрактными явлениями, такими, как кривизна пространства?

    - На самом деле, природа звёзд не более и не менее абстрактна, чем природа гравитации. Астрофизика, физика, вообще наука — это очень практическая часть человеческой деятельности, в которой не так много места для абстракций. Во всех случаях мы имеем дело с одной и той же логической схемой: есть наблюдения и есть модель, которая их объясняет. Свойства звёзд удаётся объяснить, исходя из предположения, что в их недрах происходят термоядерные реакции. Поведение луча света вблизи Солнца или, например, смещение перигелия Меркурия удаётся объяснить, исходя из предположения об искривлении пространства. Оба предположения являются равноправными составными частями общей физической картины Мира.

    - Как обнаруживают экзопланеты, ведь они невидимы напрямую?

    - Почему же не видны? В некоторых случаях внесолнечные планеты уже удаётся наблюдать непосредственно. В других случаях (их, правда, пока большинство) на помощь приходят косвенные методы, из которых наиболее продуктивны метод лучевых скоростей и метод затмений. В первом методе используется тот факт, что на самом деле не планета вращается вокруг звезды, а звезда и планета вращаются вокруг общего центра масс. Это небольшое движение звезды приводит к тому, что она движется то к наблюдателю, то от него. В результате из-за эффекта Допплера её спектральные линии смещаются то в синюю, то в красную область спектра. Эти колебания и выдают присутствие невидимого спутника. Если масса спутника не превышает 13 масс Юпитера, его считают планетой. Правда, метод лучевых скоростей позволяет определить не саму массу, а только её нижнюю границу, точнее, он позволяет определить произведение массы планеты на синус угла между плоскостью её орбиты и небосводом.

    Метод затмений работает тогда, когда плоскость орбиты планеты почти параллельна лучу зрения. В этом случае планета на каждом обороте проходит перед звездой, частично затмевая её свет. Метод затмений более сложен, но и информации даёт больше. В частности, для затмевающих планет удаётся измерять массы, спектры и радиусы. То есть он, в отличие от метода лучевых скоростей, позволяет не просто зафиксировать сам факт наличия планеты, но и определить её физические параметры и даже свойства атмосферы.

    - А как можно исследовать свойства атмосферы, если нельзя увидеть даже саму планету?

    - Здесь также работает спектральный анализ. Если речь идёт о затмевающей планете, то во время затмения, то есть в тот момент, когда планета проходит по диску звезды, газовая оболочка планеты поглощает часть звёздного света, и это добавочное поглощение можно зафиксировать в наблюдениях. В тех же (пока редких) случаях, когда удаётся увидеть саму планету, возможно получить и её спектр — непосредственно, а не в виде едва заметного изменения в спектре звезды.

    - Чёрные дыры представляют собой особый класс объектов, так как сами ничего не излучают. Каким образом они были обнаружены, и как были измерены их массы?

    - Измерение масс чёрных дыр — как раз тот случай, когда прекрасно работают законы четырёхсотлетней давности, законы Кеплера. Наблюдая движение вещества по кеплеровским орбитам, можно определить массу того тела, вокруг которого обращается вещество. В ряде случаев оказывается, что вещество вращается вокруг «пустого» места, то есть источник тяготения в фокусе орбиты есть, обладает весьма заметной массой и при этом невидим. Очень наглядный пример — объект в центре нашей Галактики. Вокруг него вращается несколько звёзд, орбиты которых измерены с очень высокой точностью. Из параметров этих орбит видно, что звёзды движутся в поле тяготения объекта массой в несколько миллионов солнечных масс. При этом объект невидим (видно лишь слабое рентгеновское излучение падающего на него газа) и обладает очень небольшими размерами. Всё это — характерные признаки чёрной дыры.

    - А можно ли объяснить эти признаки, не привлекая теорию чёрных дыр? Есть ли другие гипотезы?

    - Да, время от времени публикуются статьи, посвящённые попыткам объяснить поведение звёзд в центре Галактики другими объектами — нейтринными шарами, бозонными звёздами и прочее. Однако эти объекты более экзотичны, чем чёрные дыры, а в науке принято правило, согласно которому предпочтение отдаётся более простому объяснению.

    - Большая часть массы Вселенной состоит из тёмной энергии и тёмной материи, природа которых неизвестна. Как астрофизика изучает их?

    - Тёмная материя локальна, её признаки наблюдаются не только в масштабах Вселенной, но и в отдельных скоплениях галактик, и в самих галактиках. Поскольку тёмная материя является источником гравитационного притяжения, её распределение можно исследовать по наблюдениям явлений, связанных с гравитацией, например по наблюдениям гравитационного линзирования. Здесь в общем ситуация примерно та же, что и с чёрными дырами, — действие поля тяготения фиксируется совершенно уверенно, а его видимый источник отсутствует. Только речь идёт не об очень компактном массивном теле, а напротив, о распределении невидимого вещества в масштабах скопления галактик.

    Тёмная энергия — вещь глобальная, и её признаки проявляются в космологических наблюдениях, то есть, по сути, в наблюдениях Вселенной как целого. Но методика и здесь остаётся той же: теоретики рассчитывают, как должна выглядеть Вселенная (крупномасштабное распределение вещества, свойства микроволнового фона) при том или ином соотношении обычного вещества, тёмного вещества и тёмной энергии, а наблюдатели проверяют, насколько эти предсказания оправдываются на практике, например в наблюдениях анизотропии микроволнового фонового излучения.

    - Расскажите, пожалуйста, о связи астрофизики и физики элементарных частиц! Ждут ли астрофизики каких-то определенных результатов от LHC?

    - На самом деле, астрофизика — это не какая-то отдельная отрасль физики, подобная физике элементарных частиц или, скажем, физике твёрдого тела. Это скорее система применения знаний из различных областей физики к космическим объектам. Поэтому астрофизика связана и с физикой элементарных частиц, и с кинематикой, и с гидродинамикой.

    При этом есть, конечно, разделы астрофизики, которые к физике элементарных частиц особенно близки. Это, например, физика космических лучей и космология, исследования вспышек сверхновых и процессы в нейтронных звёздах. Результаты LHC имеют скорее общефизическое значение, чем конкретно астрофизическое. Поэтому рискну сказать, что астрофизикам в массе не так важно, какие конкретно результаты будут получены на LHC. Хотя, конечно, очень интересно будет узнать, какие результаты там будут получены.

    -А как же, например, эксперименты на LHC, предназначенные для проверки теоретических моделей столкновения космических лучей высокой энергии с молекулами атмосферы? Или вообще проверка Общей теории относительности? Разве новые данные LHC не ограничат (или расширят) модели, используемые в астрофизике?

    - Астрофизика объединяет в себе сотни, может быть, даже тысячи моделей. В очень многих моделях ни релятивистских эффектов, ни энергий, для которых был построен LHC, нет. Соответственно ни результаты LHC, ни результаты проверок ОТО на этих моделях никак не скажутся. На самом деле если бы, скажем, эффекты ОТО играли столь большую роль в рядовых физических и астрофизических процессах, для проверки ОТО не приходилось бы проводить сложных и дорогостоящих экспериментов. Сложность её проверки обусловлена именно тем, что она зримо проявляется лишь в довольно исключительных обстоятельствах, которые во Вселенной редки.

    - Может ли современная астрономическая картина мира оказаться неверной?

    - Это сложный вопрос, и ответ на него будет зависеть от того, что конкретно понимается под астрономической картиной мира и какой смысл вкладывается в слово «неверна». Строго говоря, наши «руки» (в виде космических аппаратов) протянулись лишь чуть дальше, чем на 100 астрономических единиц от Солнца. Всё, что мы «знаем» вне этих пределов, является результатом интерпретации наблюдений электромагнитного излучения и космических лучей, то есть результатом того самого центрального процесса — построения моделей и их сопоставления с наблюдениями. При этом, даже если удаётся построить модель, которая хорошо описывает имеющиеся наблюдения и позволяет предсказать результаты новых наблюдений, остаётся вопрос единственности. Не существуют ли другие модели, которые будут не менее успешны?

    Тем не менее мне кажется, что в своих основах астрономическая картина мира уже навсегда останется неизменной. Слишком многочисленны и разветвлены наблюдательные факты, на которых она строилась и строится. Невозможно, например, предположить, что энерговыделение в звёздах вызывается не термоядерными реакциями, не потянув массу последствий для других аспектов астрономической картины мира, начиная со структуры галактик и заканчивая химическим составом метеоритов. Об этом, кстати, часто забывают авторы самодеятельных научных «теорий»: в астрофизике факты чаще всего нельзя объяснять поштучно.


    К оглавлению

    Сергей Анурьев («ЛитРес») об электронном книгоиздании

    Юрий Ильин

    Опубликовано 30 ноября 2010 года

    "ЛитРес" — компания, занимающаяся легальными продажами электронных книг, образованная создателями электронных библиотек FictionBook.lib, Альдебаран, Litportal, Bookz.ru и Фэнзин в 2006 году. Что поменялось с той поры? И как наступающий бум электронных книг скажется на судьбе книгоиздания в России? Об этом «Компьютерра» беседует с генеральным директором «ЛитРеса» Сергеем Анурьевым.


    — Расскажите, пожалуйста, какие изменения в компании «ЛитРес» и отрасли в целом произошли с 2007 года и до сегодняшнего дня?

    - В 2007 году рынка в полноценном понимании этого слова не было. Был не очень результативный, но несомненно полезный опыт «КМ Онлайн», который предлагал лицензионный ассортимент до тысячи наименований.. У проекта были явные проблемы с генерированием продаж, коммуникацией с правообладателями и работой с пиратами. Наступала новая пора, связанная с изменением Гражданского Кодекса, был очевиден большой спрос на электронные книги, но не было хорошего предложения.

    Прошло всего лишь три года, а изменилось практически все. Если в 2007 году портфель электронных книг наших ключевых поставщиков АСТ и «Эксмо» насчитывал до ста позиций, то сегодня их суммарное количество увеличилось на порядки и составляет более десяти тысяч позиций.

    Сам проект «ЛитРес» на старте был обсуждаем и неоднозначен в понимании как авторов, так и потребителей. Предлагалось платить за книги, а тут вокруг пираты и все можно скачать бесплатно.

    Сегодня пользователь понимает, что есть платные и пиратские модели, и он сам выбирает, какие книги будет читать: лицензионные или пиратские. В целом, сегодня приобретение электронных книг за деньги не вызывает вопросов ни у покупателей, ни у авторов. Это стало привычным подходом к распространению книги в современном мире.

    Нужно понимать, что на момент 2007 г. за рубежом из аналогичных проектов был только www.ebooks.com. Но о нем было известно только в среде продвинутых специалистов. Книги на ebook.com были представлены на английском языке, и это было отнюдь не массовое явление. В отечественном сознании, которое ориентировано на восприятие всего через какие-то зарубежные аналоги, продажа электронных книг на тот момент была странной затеей.

    Однако с тех пор произошло множество изменений. Осенью 2007 года вышел первый Amazon Kindle; затем вышел Kindle 2 и в 2010 — Kindle 3. Также в 2010 году на рынок электронной книги вышел Apple с приложением iBook для пользователей iPhone, iPad, iPod и пр. С точки зрения потребителя тоже произошло много изменений: если б в 2007 году какой-нибудь пассажир метро достал читалку, это был бы нонсенс. Сейчас, по нашим оценкам, до трети пользуются для чтения в метро либо телефоном, либо ридером, либо другим устройством для чтения. Пользователи шагнули в сторону прогресса. То есть в 2007 году рынка не было вообще, а теперь он есть и активно развивается. Изменения эти произошли за какие-то два-три года.

    - Вопрос только в том, какой процент лицензионной продукции у них на этих читалках?

    - Выбор в пользу лицензионного контента зависит напрямую от пользователя.

    — То есть вы считаете, что это зависит от людей, а не от того, что есть, а чего нет? Вот сейчас вы упоминаете АСТ и «Эксмо» – это крупные книгоиздатели, которые издают сугубо коммерческую литературу, «жестко коммерческую», если угодно. А какие-то не столь коммерческие поставщики у вас есть?

    - Я не культуролог и не искусствовед, сложно сказать, какая литература коммерческая, а какая нет. Мы ориентируемся на результаты литературных премий, статистику продаж книжных сетей. Мы изучаем эти рейтинги и понимаем, что аудитория читает и что ей необходимо предложить.

    В целом, аудитория книги очень разная.

    Кто-то читает Дарью Донцову, кто-то предпочитает Виктора Пелевина, другие выбирают Дину Рубину.... Рубина — это что? Улицкая — это что? Качественная, но в тоже время, достаточно коммерческая литература. Тут сложно сказать, что из такого «некоммерческого» издательствами выпускается или еще не выпускается. Я просто даже не могу представить... Какую книгу вы хотели бы почитать, но не можете найти? Или какой жанр вы хотели бы почитать, но не можете найти?

    — Скажем, Владимира Набокова — в лицензионном виде...

    - К сожалению, у нас существует проблема с книгами Владимира Набоковым, как и с любым другим зарубежным автором: необходимо приобретать права на их издание на русском языке в электронном виде. То есть, например, Рэй Брэдбери — он у нас на расстоянии вытянутой руки, рядышком совсем, все готово, чтобы продавать его книги. Но нужно подписывать с ним контракт через зарубежного агента, а пока это сделать дорого и долго. Но мы работаем в этом направлении.

    — А классика? От Державина до Белинского, если по школьной программе?

    - Есть, продаем классику. Не все, правда, положительно относятся к этому.

    - А почему, кстати?

    - Считается, что классика является общественным достоянием и должна распространяться бесплатно. Хотя при этом те, кто это утверждает, забывают, что необходимо еще обеспечить качество текста и удобство его чтения на любом устройстве. Именно это мы и предлагаем пользователям нашего сервиса, когда они покупают у нас классику.

    — Теперь другой вопрос. Как выглядит процесс традиционного книгоиздания? Есть исходный текст, редактура, корректура, подготовка иллюстраций, если это вообще предполагается, верстка, типография, расходы на бумагу и т.д. Электронное книгоиздание, в сущности, эту модель меняет, чтобы не сказать истребляет, не так ли?

    - Все зависит от того, о какой книге идет речь. Например, появился автор, принес свое произведение, а его нужно редактировать. Редактирование и корректура все равно необходимы, какую бы книгу вы ни покупали. Если книга с иллюстрациями, картинки нужно верстать. Если нет, то ее все равно нужно переводить в какой-то цифровой формат. Верстка видоизменяется. Печать книги, как один из процессов, разве что исчез.

    — Что у нас остается? Верстка, корректура, если речь идет о западных каких-либо произведениях — переводы все равно нужны. Достаточна ли выручка от цифровых продаж, чтобы оплачивать весь оставшийся процесс в том же объеме, в каком это делалось до появления электронных книг?

    - Бумажная книга вместе с электронной идут вместе, одним процессом. Они — единое целое. Пока книга не напечатана, электронная и бумажная книга выглядят одинаково, – файл в программе верстки, например в InDesign. Только потом уже из файла верстки делается PDF для печати. Пожалуй, только печать является единственным процессом, который работает исключительно на бумажную книгу.

    — А если печать совсем уходит? Сейчас существует распространенное мнение, что через некоторое время бумажная книга отомрет в принципе, потому что, дескать, все эти букридеры удобнее, и если и не надежнее, то, во всяком случае, в них больше помещается. В один Kindle можно чуть ли ни всю домашнюю библиотеку «упихать». А вот если бумажная книга уходит, то вот этот процесс финансового возвращения, он как осуществляется?

    - Бумажная книга уйти «в никуда» не может. По идеи на ее место, как минимум, должна прийти электронная книга. Но в обозримой перспективе бумажная книга все равно останется доминирующим способом донесения авторского продукта до широкой аудитории.

    — Ну да, если она приходит полностью?

    - Да, тогда электронная книга будет оплачивать это процесс. Суть в том, что все деньги должны попасть в итоге к издателям и авторам. Если тысяча рублей, потраченная на книги, останется в игре, то какая разница, с какой книги их получит издатель, чтобы окупить эти процессы. С бумажной или электронной книгой — ему все равно.

    — Высказываются такие мнения — кстати, похоже, небезосновательно, — что рынок традиционного книгоиздания ждет примерно та же судьба, которая постигла музыкальную отрасль. Жадные лейблы заламывали бог знает какие цены на CD, а потом пришли интернет и MP3 и продажи дисков упали. Потребитель думает: зачем мне покупать диск, какого-то кота в мешке, пока я не услышу, что там на этом диске? А послушав MP3, он думает: я это уже слышал, зачем мне за CD платить? С книгами такого не произойдет случаем? И не происходит ли уже?

    - — Сложно сказать, В перспективе, я думаю, что произойдет изменение структуры рынка в пользу электронной книги. Изменится средняя цена на книгу, но при этом вполне возможно вырастет и потребление книг. Так что судьба издательств далеко не определена. Если они начнут активно работать с электронной книгой, то могут получить рост продаж, а не спад, который был на музыкальном рынке. Все-таки книги другой продукт, потенциально более богатый по эмоциям, вовлечению и получению обратной связи от потребителя.

    — Но если весь процесс сильно падает в цене, соответственно падает в доходах все остальное.

    - Не падает в цене... Издательская процедура без печати потребляет не такие уж большие деньги для каждого проекта. Процессы эти НЕ ОЧЕНЬ затратные. Я думаю, что по некоторым книгам продажи электронных вариантов уже могли бы окупать эти процессы, просто издатели не направляют их целевым образом. Пока рост доходов от электронных книг рассматривается как приятное дополнение. В разговоре со многими издателями часто можно услышать: «Мы не ожидали, что электронная книга принесет нам столько денег». Это говорит о том, что это для них приятное «дополнение», но и не более того.

    — Кто как. Мы недавно опубликовали интервью с книгоиздателем, который полагает, что электронная книга вполне может оставить традиционное книгоиздание не у дел полностью.

    - Он-то, может, и обеспокоен, но если ему за электронную книгу станут платить, он, скорее всего, высказываться против не будет.

    — У него нет доказательств, что за электронные книги люди и вправду готовы всерьёз платить.

    - Нужно сотрудничать с «ЛитРес», тогда эти доказательства будут. Есть много вариантов того, как продать свою электронную книгу. В чем суть модели издательской? Есть книга, которая стоит 200 рублей в розницу. Ее издатель продал за 100. Реальные затраты при тираже 5 тысяч экземпляров на верстку и корректуру максимум 50 тысяч рублей. Что-то он вложил в печать, тысяч 50-100. Авторам он отдал 50-70 тысяч. У нас остается тысяч 200-300, которые идут целиком издателю на покрытие общих расходов. Почему кажется, что такая маржа огромная, так это потому, что продажи книги распределены во времени. Ты печатаешь 5 тысяч и вкладываешь вот эти деньги, условно говоря, сразу, а продают некоторые издательства её по шесть, по двенадцать месяцев. Кто-то еще больше продает, если мы говорим о деловой литературе. С электронной книгой нет этого «размазанного» процесса.

    И не нужно засаживать единовременно 100-200 тысяч рублей в типографию и ждать пока они окупятся. Ты должен направить деньги в редактуру, а авторские отчисления ты можешь по реализации платить. Экономика значительно меняется и поэтому потребность в оборотных средствах падает. В целом, если говорить про экономику, на электронной книге есть экономия. Главное, чтобы пользователи были научены платить. За рубежом их уже научили. Я думаю, это неминуемое, и мы тоже научим.

    — А каким образом можно этого добиться? Вы считаете это возможным, учитывая, что у нас множество электронных библиотек?

    - Отключать библиотеки.

    — То есть, грубо говоря, насильственными средствами?

    - А как иначе? С библиотеками экономические рычаги не работают. Допустим, человек нарушает закон, отнимает сумки на улицах. А вы подходите и говорите: «Знаешь, это неправильно, давай ты не будешь больше отнимать». Он отвечает: «Да, ок, ты хороший парень, мне нравишься, вот твою жену и дочку не буду обижать». А потом он отнимает у твоей мамы, а потом и у сестры... А есть люди принципиальные: «Я отнимаю сумки у всех на этой улице и мне все равно, что ты говоришь мне. Если можешь — догони, я чемпион мира по легкой атлетике».

    Разговор с пиратами сводится именно к такому варианту. Кому-то ты говоришь: «Ребят, не стоит выкладывать книги, это преступление». Ответ: «Да-да, хорошо». Прекращают выкладку, а через пару месяцев снова тоже самое. Мы с ними связываемся и слышим: «Да, ок, не будем». Но есть люди, которые вообще не идут на контакт. У них такая позиция, пока их не прижмешь, они будут чувствовать себя свободно и ничего делать не станут. По принципу «Сможешь – догони». Вот с ними договориться нельзя.

    Дать им экономическую модель? Мы даем, пожалуйста, зарабатывайте на продаже электронных книг. У нас действует одна из таких свободных реферальных программ, мы даем до 35% от наших продаж партнерам, которые помогают нам эти продажи делать. Это очень большая ставка для Рунета. Я могу сказать, что это больше, чем мы даем партнерам, которые продают наши книги у себя на сайте (Amazon и прочие). Мы ценим тех пользователей, которых нам приводят наши партнеры, рефералы. Для них это не работа.

    Некоторые работают, а некоторые говорят: «Извините ребята, но я так работаю, а иначе я буду терять трафик». Единственный вариант — это прижать пиратов. И, к сожалению, я других вариантов не вижу. Если издатели, авторы и мы не будем зарабатывать на книгах, то этого бизнеса не будет вовсе. Рынок должен давать деньги, иначе это не рынок. Рынок — это оплачиваемый спрос. То есть это желание потребителя заплатить за какую-то услугу или продукт.

    — Уже были случаи, когда успешно удавалось одолеть каких-либо пиратов?

    - Пока мы работали через модель «Давай ты не будешь отнимать сумочки». Сейчас у нас уже на стадии подачи искового заявления находится два или три дела. И по остальным делам полный сейф бумаг. Просто в нашей стране подача искового заявления занимает достаточно продолжительный период. Нужно заявление зафиксировать у нотариуса, а это занимает несколько недель. Затем необходимо зафиксировать нарушения, подать адвокатский запрос. Адвокатский запрос может давать ответ месяцами. По последнему случаю мы ждали ответ три месяца. Только после этого мы идем в суд, оплачиваем пошлину, и только теперь мы имеем право подавать исковое заявление. С этого момента начинают рассматривать дело. На все это тратится в среднем шесть месяцев.

    Но мы уверенны, что в следующем году начнут «выстреливать дела». Будем прижимать пиратов, призывать к ответу. Это не халява! Воровать интеллектуальную собственность — это преступление. Мы работаем в этом направлении и стремимся упростить эту процедуру, чтобы она не занимала 6 месяцев, как сейчас. В идеале должно быть так. Я правообладатель, у меня есть исключительные права. Я сказал, что это правило нарушено, оформил все бумаги у нотариуса, и этого должно быть достаточно для того, чтобы приостановить деятельность того или иного сайта.

    — А если сайт, о котором речь идет, находится не на территории РФ, а в другом государстве, где законы РФ, понятное дело не работают и не распространяются. С этим как?

    - «Отрубать» на уровне кабеля, входящего в Россию. Если кто-то совершил правонарушение зарубежом, то ему не дадут визу в Россию.

    — Но перерубить кабель на уровне Ростелекома от другого государства...

    - Из всех государств ведет один кабель через Ростелеком или кого-то еще и стоит какой-то фильтр на входе. Вот этого достаточно. Но, поймите, что контроль входящего трафика это только один вариант решения проблемы, существуют и альтернативы. Надо искать решение существующей проблеме.

    — Но вы понимаете, что сразу будет дикий скандал и много шума по поводу лишения прав...

    - Я понимаю, и мы к этому готовы. Пусть пираты пошумят чуть-чуть насчет нарушения прав, но не я.

    — Шуметь будут не они, а поборники свободы слова.

    - Шум — хорошая вещь — и PR. Любое изменение происходит через перелом. Насколько он болезненный — это вопрос. И нужно сделать этот перелом, иначе будут шуметь правообладатели и загнется рынок. Но если есть пираты, что с ними сделать? По-другому на них воздействовать достаточно тяжело. Я почему-то должен тратить свои деньги, до 50 тысяч долларов, чтобы их достать, и то не со стопроцентной гарантией. Зачем мне это, по-хорошему? А если он не один? А если их таких десять? Кто-то мне должен принести эти деньги, а кто мне их принесет? Почему я должен себя защищать? Я же налоги плачу, ЕСН, НДС, авторам — роялти, а они ничего не платят. И я еще должен платить деньги, чтобы их закрыли. Как такое возможно? Компания «ЛитРес» — обладатель исключительных прав на ряд произведений.

    — Вспоминается недавняя история с Youtube в Комсомольске-на-Амуре, где суд вынес решение заблокировать сервис «за экстремизм» вовсе — благо там провайдеров немного. В общем, закрыли, потом открыли. В итоге был большой скандал на всю страну. Вы считаете, что это вполне реально, что Вам удастся получить судебное решение, предписывающее перекрыть доступ к каким-либо пиратским ресурсам?

    - Если другие варианты не найдем, то придется действовать именно так. Пока я других вариантов не вижу. Для того, чтобы бегать за пиратами по всему миру материальных и физических средств нет, а государство пока не стремится помогать.

    Я надеюсь, что мы получим возможность воздействовать на пиратов. Даже сложно представить их количество в сети интернет. Есть информация, что в отпуске Дмитрий Медведев читал книги Стига Ларссона в электронном виде. Я вам открою тайну: прав на автора в России нет ни у кого, ни на перевод, ни на само издание на русском языке.

    Потребители даже не знают, что потребляют пиратский контент. Вы приходите на рынок, и вам предлагают читалку, и в ней уже как бонус записаны сто тысяч наименований книг. Вы даже не догадываетесь, что все это пиратские книги. Это называется неотрегулированное законодательство.

    В итоге, если ничего с этим рынком не предпринять, то завтра вам просто нечего будет читать. Будете читать Стига Ларссона, но на английском языке и платить нормальные деньги. Или будете читать самиздат. Какие-то авторы из любви к творчеству будут писать. Но они будут писать меньше книг. Может, они будут ценнее.

    Лев Николаевич Толстой, Александр Сергеевич Пушкин — они творили не только из любви к искусству. Ключевые их произведения были написаны за деньги, потому что мы понимаем, как это работает: есть дедлайн, есть сумма, есть интерес, и почему-то приходят и муза, и креатив.

    Если этот процесс не оплачивается, то нет никаких стимулов «творить». Автор в каком-то свободном режиме будет писать, писать и слушать своего выпускающего редактора тоже не будет, т.к. редактора не будет.

    - Коммерческие писатели, кстати, иной раз сталкиваются сейчас с ситуацией, когда им в издательстве говорят: у вас слишком хороший язык, ухудшите его. Вот это как?

    - Упростить, наверно. Я не издатель, мне сложно рассуждать на эту тему.

    — А не приведет ли это напрямую к деградации и читателя тоже?

    - Язык прогрессирует, и труды Ломоносова в оригинале читать и понять сложно. Упрощение языка — это нормальный процесс. Я недавно прочитал книгу «Rework: бизнес без предрассудков», и хоть это и переводная книга, прочел очень быстро, поскольку легкий язык. Не то, что написано «молодежным» языком, в просто и доступно подана информация. Донести искусство в массы не получится, потому что массы и искусство — темы разные. Люди массово в театр не ходят, даже в кинотеатр массово не ходят, честно говоря.

    Люди массово смотрят телевизор. Попробуйте им массово показать артхаусное кино по телевизору — например, «Весна, осень, зима и опять весна...» Ким Ки Дука. Я сомневаюсь, что вообще смотреть будут, хотя кино отличное. Поэтому если автору нужна массовость, его могут попросить упростить язык, сделать более динамичные сюжеты, упростить шутки, сделать их не такими высокоинтеллектуальными..

    Если автор хочет искусства, то это, возможно, уже другой жанр и другие деньги. Но это вопрос издания книги и тут лучше спросить и профессионалов именно издания книг, а не меня, т.к. я продаю уже созданный продукт.

    Если электронная книга не войдет в русло рынка, то рынка не будет, никто не будет рассказывать людям, как надо писать, чтобы интерес был массовый, чтобы автор и книга были обсуждаемы. Наверняка будут проекты а-ля Гришковец: человека вроде бы никто не направлял, он сам вышел к массовости. Я не знаю его издательскую и редакторскую карьеру, может, его кто и направлял. Наверняка такие мэтры останутся, но их будет меньше, интенсивность писания так же будет снижаться, да много ещё чего будет меньше.


    К оглавлению

    Отец мультитача о будущем интерфейсов

    Андрей Письменный

    Опубликовано 01 декабря 2010 года

    В одном из просторных кабинетов новенького офиса Microsoft в Крылатском страшная кутерьма. Двое операторов устанавливают видеокамеру и свет, PR-менеджер нервно крутит в руках телефон, время от времени заглядывают ещё какие-то люди. Я сижу в кресле, искоса поглядываю на экран макбука (его попросили отодвинуть подальше — чтобы в кадр не попадал) и тоже слегка нервничаю. Напротив меня — ещё одно кресло, пока пустующее. С минуты на минуту его должен занять гость из Штатов, к приезду которого, собственно, все так судорожно готовятся.

    Билл Бакстон не известен широкой публике, однако в своей области его можно считать очень весомой фигурой. В 1985 году, за четверть века до айпада, он разработал графический планшет с поддержкой мультитача. От нынешних сенсорных дисплеев тот отличался разве что отсутствием экрана под чувствительной поверхностью.

    Бакстон до сих пор трудится в области исследования человекомашинного взаимодействия и интерфейсов. Он успел поработать в легендарном Xerox PARC и компании Silicon Graphics, получить три докторских степени и множество наград за свои изобретения, преподавать в университете Торонто, написать несколько колонок в журнал BusinessWeek и книжку Sketching User Experiences. С 2005 года Билл Бакстон занимает должность старшего исследователя в Microsoft Research и продолжает свои разработки.

    Все эти (и ещё многие сюда не уместившиеся) титулы и достижения не помешали Бакстону оказаться милейшим и обаятельнейшим дедушкой в безразмерном свитере. Стоило ему появиться на пороге комнаты и поздороваться с собравшимися своим ласковым баритоном, как напряжённая атмосфера в момент рассеялась. Рассеялись и мои опасения о том, что человека из Microsoft, возможно, придётся долго допрашивать, прежде чем он перестанет говорить заученными рекламными фразами. От корпоративных ценностей Бакстон оказался поразительно далёк, а на любой вопрос отвечал захватывающей дух речью.


    На следующий после интервью день Билл Бакстон выступил на конференции User Experience Russia 2010

    - Расскажите для начала о своей работе. Каково это вообще — работать в Microsoft Research?

    - Microsoft Research во многом напоминает университет, в частности — своим устройством. Моя работа похожа на работу профессора в научной лаборатории — за тем лишь исключением, что не нужно преподавать. У нас есть исследовательские проекты, а моя специальность — человекомашинное взаимодействие: жесты, устройства ввода и так далее.

    Мы ставим эксперименты, делаем прототипы, тестируем их, а потом показываем результаты на научных конференциях — к примеру, на этой неделе в Нью-Йорке проходит конференция, посвящённая техническим аспектам пользовательских интерфейсов. Там мы представим нашу работу о вводе данных, задействующем обе руки — так, чтобы можно было использовать прикосновение и перо одновременно.

    Последний проект моей группы призван доказать, что само противопоставление пера и прикосновения неверен, потому что их лучше всего использовать вместе. Иногда одно, иногда другое, но зачастую лучше всего — вместе.

    "В компьютерной технике и телекоме нужно минимум двадцать лет, чтобы новая идея стала по-настоящему популярной"

    В Microsoft тысяча человек вроде меня, и им удаётся покрыть все области знания: компьютерную науку, инженерные аспекты, даже физику, физиологию, социологию и психологию. Это контекст для всего, связанного с компьютерами. Каждый из нас старается понять, как каждая из этих дисциплин может помочь бизнесу и старается сделать свою разработку важной для компании.

    - Вы, наверное, много взаимодействуете с другими исследовательскими группами?

    - Да, я думаю, это моя личная черта. Кажется, я не сделал ни одного проекта, который бы не подразумевал взаимодействия с другими исследовательскими группами — как внутри Microsoft, так и с продуктовыми группами, а нередко — и со специалистами из других стран. Мне важно общение с людьми, имеющими опыт в разных областях — их взгляды на мир различаются поразительным образом. Когда я зову их участвовать в моих проектах или помогаю с их разработками, у меня куда больше шанс чему-то научиться или сделать что-то неординарное.

    - Проекты Microsoft Research редко воплощаются в том виде, в котором разрабатывались. Вы можете рассказать, какие из ваших проектов нашли применение в конечных продуктах?

    - В компьютерной технике и телекоме нужно минимум двадцать лет, чтобы новая идея стала по-настоящему популярной. Многие удивляются: «Как такое возможно?» Технологии же развиваются очень быстро, почему же момент изобретения и широкое применение разделяют десятилетия?

    Приведу несколько примеров. Мышь изобрели в 1965 году. Я сам использовал одну из них в 1971. В Xerox PARC мышь появилась в 1973. К Apple Macintosh мышь прилагалась с 1984. Но только в 1995, когда вышла Windows 95, мыши действительно распространились повсеместно.

    Ещё пример. Я работал над мультитачем в 1984, а в 1985 опубликовал статью об этом. Но всё равно никто, кроме профессионалов, не знал о мультитаче до 2007 года, когда появились два продукта: Microsoft Surface и Apple iPhone. И внезапно мультитач стал великолепной новой штукой. Новой штукой — из 1985 года!

    - Значит, сейчас вы работаете над проектами, время которых настанет через двадцать лет?

    - Конечно. Такая у меня работа. Это не значит, что некоторые идеи не всплывут раньше, но многие проекты Microsoft Research действительно рассчитаны на двадцатилетний период. Надеемся, конечно, что хватит и десяти лет, но все понимают, что может потребоваться и двадцать.

    У нас есть и такие подразделения как Office Labs и Live Labs — это уже не исследователи, а, скорее, разработчики. Они берут идеи исследователей и думают над тем, как использовать в продуктах.

    Об исследовательских проектах нужно думать, как думают банкиры: есть деньги, их нужно инвестировать. Часть из них должна окупиться быстро, часть — медленно. В Microsoft Research рассматривают долгосрочные перспективы, в Labs — среднесрочные, а в продуктовых группах — ближайшее будущее, не дальше пяти лет.

    Microsoft Surface — хороший пример. Он появился в последние пять лет, хотя некоторым наработкам, которые в нём применили — не меньше пятнадцати лет. Огромную работу проделали без лишней шумихи, просто в какой-то момент все смогли увидеть результат.

    Другой пример — Kinect для Xbox 360, технологию для которого создали в кембриджской лаборатории Microsoft Research в Великобритании. У нас там есть таланты мирового уровня, специализирующиеся на машинном зрении. Они разработали систему трёхмерного распознавания, лёгшую в основу Kinect. На их счету важная научная работа в области математики, благодаря которой распознавание жестов стало возможным.

    - Kinect всё-таки стал конечным продуктом. Surface — тоже, но шумиха вокруг него быстро закончилась, и с тех пор про него ничего не слышно. Можно ли его считать успешным?

    "Surface очень интересен, потому что это далеко не просто экран с мультитачем. Самое важное в Surface — то, что экран одновременно служит оптическим сенсором"

    - О «Кинекте» много говорят, потому что это продукт для всех, к тому же он только-только начал продаваться. С Surface всё не так просто. Он ведёт за собой куда более важные изменения, да и сама технология куда сложнее. Конечно, хотелось бы, чтобы всё происходило быстрее. Создать телефон, плеер или новый тип компьютера можно довольно быстро. Но Surface — куда более амбициозный проект, и здесь немало сложностей. Сперва нужно сделать так, чтобы «железо» заработало, затем — софт, а уже потом нужно думать, как заставить то и другое работать вместе. «Железо» нынешней версии Surface впечатляет, но при этом оно дорогое и довольно неуклюжее. Нам удалось достичь немалого успеха в крошечной рыночной нише. Поскольку Surface сложно и дорого изготовлять, мы решили сконцентрироваться на узких и практически незаметных для широкой публики рынках.

    - И что это за рынки?

    - Области вроде ритейла, банков, отелей...

    - Можно сказать, что там Surface действительно используют?

    - Используют. Есть магазины, в которых можно взять товар, положить на Surface и изучить дополнительную информацию, но таких мест не очень много. И это, на самом деле, хорошо, потому что сперва лучше найти узкую область, в которой есть шанс достичь настоящего успеха. Пользователи довольны Surface, но они, скорее, бета-тестеры (хоть официально Surface и не считается «бетой»). И у нас теперь есть несколько лет опыта использования устройства, и мы знаем, как улучшать софт и систему. Мы знаем, что аппаратная часть станет проще и дешевле. Так всегда происходит с технологиями — упрощение и миниатюризация потихоньку меняют всю экономику производства.

    Иногда новая технология кажется совершенно ужасной — для неё нет ни софта, ни достойного применения, и люди просто не знают, как её использовать. Мы не можем позволить этому произойти. Благодаря тому, что с Surface мы работаем уже несколько лет, мы будем готовы к появлению следующего поколения «железа», и новый софт от этого выиграет.

    Surface очень интересен, потому что это далеко не просто стол и не просто экран с мультитачем. Самое важное в Surface — то, что экран одновременно служит оптическим сенсором — наподобие сканера. На него можно положить документ или объект, и устройство его «увидит». Оно реагирует и на пальцы, что обеспечивает мультитач, но в отличие от ёмкостного или резистивного экрана Surface не только воспринимает прикосновения, но и по-настоящему видит объекты, сканирует и оцифровывает их. Это самое замечательное.

    - Ну да, мы все видели демонстрации. Есть ещё один интересный продукт, о котором я хотел вас расспросить. Он назывался InkSeine, и, кажется, впоследствии какие-то его элементы были использованы в многострадальном Microsoft Courier. Со стороны он многим кажется неудачей, но вы наверняка знаете куда больше.

    - Конечно. Это разработка как раз моей группы. InkSeine создал один из моих ближайших коллег — Кен Хинкли. Как раз о нём я говорил, когда упомянул сотрудника, который демонстрирует в Нью-Йорке наш проект, сблизивший тач с перьевым вводом.

    - То есть работа движется?

    - Конечно! Пока что это всё лишь исследования, но у нас есть, что показать. Другая группа в Microsoft Research разработала замечательную программу для рисования — Gustav. В отличие от других программ для рисования на компьютере, она по-настоящему моделирует физику красок. Мел, к примеру, будет отличаться от масляной краски — её можно смешивать пальцами, а мел — размазывать и так далее. Рисовать при этом можно и пером, а пальцами — подправлять или же двигать и масштабировать холст. Получается, что пальцы и кисть можно использовать одновременно.

    Я знал, что вы упомяните Courier. Наша цель — доводить до рынка хорошие технологии, но иногда бывает так, что конечный продукт не так важен. Идеи продолжают развиваться, научные статьи публикуются...

    - То приложение с красками производит впечатление очень «аналогового» что ли. Вам не кажется, что правильнее было бы не пытаться эмулировать аналоговое, а придумать, как извлечь пользу из того, что у компьютеров получается лучше?

    - О, это отличный вопрос, я рад, что вы его задали. Это, на самом деле, больше похоже на выбор тактики. Когда новая технология готова к использованию, людей нужно убедить в том, что она работает. Для этого стоит сделать знакомую всем вещь, но на цифровой основе. Её можно показать всем и сказать «попробуйте». Вместо того, чтобы решать, вы правы или я, лучше всего попробовать и прислушаться к своим ощущениям. Вы уже использовали компьютер раньше и сперва отзовётесь негативно. Потом скажете: «Но я же не художник, зачем мне краски? Я инженер или музыкант или банкир или в игру хочу поиграть — не важно». Я отвечу: «Я это понимаю, но зато теперь мне стала понятна физиологическая сторона. У тебя ведь две руки?» — «Что за глупый вопрос? Конечно!» — «Ну и почему ты всю жизнь используешь только одну при работе с мышью (кроме тех моментов, когда приходится печатать)?».

    Как использовать обе руки при работе с компьютером? Когда мы пишем на листе бумаги, мы обычно не просто водим по нему карандашом, вторая рука при этом обязательно придерживает и направляет лист. При письме руку комфортно передвигать примерно на шесть сантиметров — не больше. Это можно учесть, причём даже в работе, к примеру, с электронными таблицами.

    Приведу пример ещё лучше. Представьте, что я работаю с небольшим устройством — величиной с мобильный телефон. Там у меня есть карта, и я хочу показать на ней, как добраться из аэропорта до московского офиса Microsoft. Если карта умещается на экране целиком, то от неё никакого прока — слишком мелко. Её нужно приблизить и начать рисовать на ней путь, но разве это не безумие — нарисовать три линии, подвинуть, нарисовать ещё три линии, передвинуть и так далее?

    Гораздо лучше было бы водить устройством так, будто оно — увеличительное стекло над реальной, но невидимой картой. Гироскоп, акселерометр или поток оптических данных со встроенной камеры в этом помогут. Тогда можно будет передвигаться над «картой» и, будто мы управляем камерой, приближать телефон для разглядывания деталей или отдалять для того, чтобы осмотреться. Вот тогда можно будет и рисовать, и передвигать карту, и говорить одновременно, а потом отправить в виде сообщения — к примеру, в машину, а её навигационная система отобразит послание.

    В какой-то момент становится понятно, что работа с картой очень напоминает рисование! Двигаться по карте — в точности то же самое, что двигать холст в «Густаве». Представьте себе такую ситуацию: вам нужно добираться сюда, а у вас дома проблема с окном. Нужно вызвать ремонтников, но поломка — в определённом месте одного из окон. Времени ждать и показывать нет, потому что нужно по делам. Вы выходите из дома, берёте с собой камерофон и фотографируете фасад. А потом помечаете на картинке нужное место и отправляете в виде сообщения рабочим.

    В телефоне есть тачскрин, камера и микрофон. Но почему-то ни один из телефонов пока что не позволяет делать то, что я описал, хотя это и было бы ценно.

    Заметьте, что в этих примерах вы рисуете, но не что-то художественное, а аннотацию. Возвращаясь к вашему вопросу, программа для рисования эмулирует старый способ рисовать, но само рисование здесь не имеет особого значения. Что имеет значение — так это умения людей, те умения, которые у нас есть всю жизнь и которые мы применяем в обычном мире. Если придумать, как использовать этот потенциал и эти навыки, то можно перейти на другой уровень абстракции: речь пойдёт уже не о рисовании, а о манипуляции объектами, аннотировании и объединении этих действий.

    Это уже не просто навигация, увеличение или перемещение — ведь одновременно можно что-то помечать и отдавать голосовые команды. Представьте, что такую схему будут использовать для других типов документов. Что изменится, если к ним можно будет применять те же навыки? Получается уже не эмуляция, а нечто инновационное — ведь мы переносим уже известные принципы на другие задачи и другие устройства — Surface, планшет, мобильный телефон или даже настенную доску. И выходит, что это не просто копирование чего-то старого, а использованее лучшего, что могут дать цифровые технологии, и лучшего — из того, что умеют люди.

    Вообще говоря, я довольно подробно изучал традиционные медиа, но мои исследования лежат вовсе не в области софта или железа. Их предмет — люди. Как они устроены? Что сделать, чтобы технология учитывала их способности? Ваш вопрос хорош тем, что позволил показать, как двигаться от копирования к инновации.

    - Что ж, убедительный ответ! Но давайте подробнее поговорим о тачскринах. Они были изобретены давно, но за последние пару лет внезапно стали мейнстримом. Что, по-вашему, послужило толчком к их распространению?

    - Первые тачскрины действительно были изобретены в 1965 году — примерно тогда же, что и первые мыши. В 1972-73 в Иллинойском университете был проект по компьютерному обучению. К 1974 в школьных классах по всему Иллинойсу стояли компьютеры с плазменными панелями (которые изобрели там же) и поддержкой тача, и ими пользовались семилетние дети.

    - Повезло детям!


    - Ещё как! Система досталась не исследователям или бизнесменам, а детям. Называлась она PLATO. Резонный вопрос — что же случилось с этой разработкой?

    У меня есть большая коллекция гаджетов. Давайте покажу вам один из них. Смотрите, это просто часы, они похожи на те, что я ношу сейчас — у них есть циферблат и ещё небольшой экранчик внизу. Их роднит ещё одна вещь — и те, и другие снабжены тачскринами. В этих старых часах есть калькулятор. Нажимаем вот на эту кнопку, на экране появляются буквы CAL — «калькулятор». Мне нужно ввести цифры — я их просто рисую на поверхности. Рисуем "1" — появляется единица. Теперь пишем "7", чтобы вышло «17». Теперь знак "+", "3" и знак "=".

    - Впечатляет.

    - Да, здорово. Вы технический журналист и наверняка должны знать, когда такие часы стоили дешевле ста долларов.

    - Несколько лет назад?

    - Сколько именно?

    - Пять? Десять?

    - Ещё.

    - Пятнадцать?

    - Нет!

    - Двадцать?

    - Тоже нет!

    - Двадцать пять, может быть? Вряд ли больше.

    - Двадцать шесть!


    - Эти часы — с тачскрином, распознаванием рукописного ввода и калькулятором, были сделаны и продавались в магазинах по всему миру в 1984 году. В том же году, когда появился первый Macintosh. Ещё раз: 1984 год, дешевле ста долларов, тачскрин, распознавание рукописного ввода, размер обычных часов... Всего через десять лет после PLATO. Да что мы вообще делали последние 26 лет?!

    Вам наверняка известен закон Мура. Число транзисторов, умещающихся на кристалле определённого размера, удваивается каждые 18 месяцев. Чтобы получить число за последние 26 лет, нужно умножить 26 на 12 и поделить на 18 — получится, что с тех пор, когда появились эти часы, число транзисторов, умещающихся на чипе, удвоилось семнадцать раз. Если бы микросхема, отвечавшая в этих часах за распознавание символов и обработку информации с тачскрина, создали сегодня, в ней при том же размере было бы в 217 раз больше транзисторов

    - Не могу поверить, что они продавались на Земле, а не где-нибудь на Альфе Центавра.

    - Эта штука, конечно, довольно медленная и распознаёт не идеально. Сегодня можно сделать куда лучше — как Graffiti. И ещё один нюанс. Мы живём в век «Твиттера» и SMS, и каждый, кто пишет на телефоне, делает это большими пальцами, уставившись в экран — чтобы не пропустить ошибку. Я могу показать вам тачскрин двадцатишестилетней давности, на котром можно было писать, не глядя. Ввод текста на нём не был привязан к пространству, не нужно было попадать по крошечным целям. На нём нужно было рисовать, а это мы все умеем делать.

    "Традиционная форма исследования — это не изобретение, а изучение прошлого и последующие попытки осмыслить, понять и применить к новым условиям"

    Люди часто думают, что исследования (в частности, в Microsoft Research) — это обязательно изобретение новых продуктов. Отчасти это правда. Но традиционная форма исследования — к примеру, в истории или социологии — это не изобретение, а изучение прошлого и последующие попытки осмыслить, понять и применить к новым условиям. Лично я половину времени изучаю прошлое, пытаясь осмыслить случаи, похожие на те, которые я описал. Это важнейшие прототипы, и я их не создал, а просто купил, и они помогают понять, как, к примеру, сделать лучший смартфон.

    Кстати, у меня есть первый в мире смартфон. Давайте я вам его опишу, хотя бы для смеха. Представьте такой телефон — у него три кнопки (включение-выключение и регулировка звука), а всё остальное делается при помощи тачскрина: звонки, адресная книга, календарь... Что я сейчас описал?

    - Боюсь, трюк не пройдёт — я смотрел ваши статьи и видел упоминание этого телефона. И это не iPhone.

    — Да, он назывался Simon. Джонатан Айв, который создал iPhone, а до этого работал над Newton, наверняка знал про Simon. Все эти идеи не новы — они эволюционируют.


    У Simon не было мультитача, у моей разработки — был, но всё равно и то, и другое уже в прошлом. Залог успеха продукта — не в какой-то единственной технологии. Технологию можно сделать за год или за два, гораздо сложнее интегрировать её в экосистему других технологий (в том числе и устаревших).

    Почему Simon провалился, а iPhone — нет? Всё дело во времени. Когда создавался Simon, телефоны были дорогими, а скорость передачи данных — низкой. У Simon не было веб-браузера — просто потому что веб в 1993 году ещё не изобрели.

    Хотя вещи вроде «Саймона» или тех часов обычно остаются неизвестными, благодаря им можно многое узнать. Это яркие представители технологий, проходящих период инкубации и готовых воплотиться в новый продукт. А значит, что и сейчас имеется много вещей, которым уже десять или пятнадцать лет, и которые готовы к новому рождению.

    - Понятно — значит, всё дело не только в тачскринах, но во всей совокупности технологий...

    - Конечно. Сколько лет мы уже слышим, что распознавание рукописного ввода появится в следующем году? (В России, кстати, лучшие специалисты в этой области. Это сложная математическая задача, а тут много отличных математиков.)

    А что с распознаванием речи? Все говорят, что оно вот-вот станет повсеместным. Говорят причём уже лет тридцать. Тем временем распознавание речи действительно мало-помалу начинает работать. Кстати, занятная деталь с распознаванием: его точность всегда составляла 98%, просто тесты всё время становятся всё сложнее и сложнее.

    И ещё нужно понять, как объединить эти технологии вместе. Когда ведёшь машину, телефон действительно должен управляться исключительно голосом. А вот если я лечу на самолёте в Сан-Хосе и хочу по телефону рассказать что-то важное, меня могут и уволить, потому что рядом легко может сидеть кто-нибудь из конкурентов. Зато если я буду писать, никто ничего не узнает. А бывают случаи, когда нужно и писать, и говорить одновременно — как в примере с отправкой фотографии с пометками.

    Это действительно всё усложняет. Когда я начинал работать с компьютерами в 1971 году, они были приписаны к лабораториям и выполняли строго определённые задачи. Сейчас компьютеры повсюду, и их задачи становятся всё сложнее.

    - Сейчас мультитач уже относительно распространён. Как вы думаете, его потенциал уже используется полностью, или ещё есть, что добавить?

    - Добавить — многое. Даже в случае с телефонами — у них есть мультитач, можно использовать и перо или голосовой ввод, но эти возможности используются не одинаково хорошо, что уж говорить об использовании всех трёх сразу.

    Вот что людям даётся легко, а компьютерам — сложно, так это одновременные действия. Мы всегда находим способ объединить две-три простые задачи в одну цельную, но лёгкую в исполнении. Я могу находить дорогу на карте или рисовать поверх фотографии и менять масштаб по ходу дела. На телефоне эти действия никак не выполнить одновременно. Если же их можно будет делать одновременно, да ещё и одной рукой, то вторую можно будет задействовать ещё для чего-нибудь, а затем и голос. Это куда более естественное поведение — и его ещё предстоит воплотить.

    Но это ещё не весь ответ. В ближайшие лет пять индустрия сможет произвести действительно хорошие и хорошо спроектированные гаджеты. Но индустрии ещё есть к чему стремиться.

    - Есть ли, по вашему, какие-то тупики, связанные с развитием новых интерфейсов — мультитача в частности?

    - Конечно. У меня есть правило, я его часто повторяю: любая вещь хороша в одном случае, но не годится — в другом. Компетентный дизайнер должен знать, что он делает, для кого, когда и почему. Когда ко мне приходит дизайнер и говорит, что он изобрёл новую технологию, я первым делом говорю, что это очень интересно, и тут же спрашиваю, в чём подвох. В чём эта вещь бестолкова? Если дизайнер не знает, я ему отвечаю, что работа не готова, он ещё не понимает, что делает, и что нужно вернуться к проектированию. Или же я собираю группу, и мы ищем недостатки вместе.

    "Когда ко мне приходит дизайнер и говорит, что он изобрёл новую технологию, я спрашиваю, в чём подвох. В чём эта вещь бестолкова?"

    Так или иначе, я должен рассмотреть проблему со всех сторон. Только поняв недостатки, можно сосредотачиваться на достоинствах. Мало кто об этом задумывается, а ведь именно это умение отличает просто умного человека от профессионального дизайнера или исследователя.

    Что касается именно мультитача, то он хорош для многого, но как и всё — для чего-то бесполезен. Для того же рисования: не зря же Пикассо использовал кисть, а не рисовал пальцем как пятилетний ребёнок. Но это не значит, что он вообще ничего не трогал руками.

    До чего же можно и нужно дотрагиваться? Есть хорошие примеры. Взгляните на руки — может показаться, что мы используем в основном правую руку, и что левая не так уж важна. Но это не так. Левая настолько же специализирована, насколько и правая — просто нужна для другого: поддерживать, обхватывать и так далее.

    У меня есть коллега — французский психолог Ив Гиар, он рассказал мне много интересного — в том числе о том, как мы пишем.

    Билл Бакстон рассказывает о наблюдениях Ива Гиара, посвящённых письму на бумаге

    Или, к примеру, историю о том, что пуговицы на женской одежде расположены с неверной стороны. Не просто с другой, а именно с неверной. Работает это так: сперва человек подносит свою недоминирующую руку (для большинства — левую) и нащупывает ей то место, где будет производиться действие, затем следует доминирующая рука, подтягивает вторую часть куда нужно, и делает завершающее движение. Так мы действуем и когда вдеваем нить в иголку и когда застёгиваем пуговицы и в прочих похожих ситуациях.

    Потому у мужчин пуговицы расположены с нужной с точки зрения правши стороны. Почему же у женщин не так? Ответ оказывается очень забавным. Исторически сложилось так, что первые платья с пуговицами были очень дорогими — позволить их себе могли только богачи, а бедняки подвязывали одежду — примерно так [кивает на закутанную в шаль пиарщицу Microsoft]. Богатым женщинам не нужно было одеваться самостоятельно — для этого у них имелись слуги. И пуговицы располагались таким образом, чтобы слугам было удобно. А сегодня только мужчины могут получить выгоду из такого расположения пуговиц на женской одежде.

    Видите, даже в истории одежды можно найти уроки, полезные для понимания естественных интерфейсов. Технологии всё время меняются, а вот способ использовать руки — нет. Если изучить и понять это, то и жестовые интерфейсы сразу становятся понятнее. Появится понимание того, как сделать жесты для Kinect или Surface или мобильного телефона. Как решить, в какой руке он должен находиться при том или ином действии? К какому движению какое действие приязать? Как они взаимосвязаны? Что нужно делать одновременно, а что — поочерёдно? Нужно понять, как все эти вещи делать правильно. Я уверен, что мы до этого дойдём в ближайшие пять лет плюс минус два года.

    "Даже в истории одежды есть уроки, полезные для понимания естественных интерфейсов. Технологии меняются, а вот способ использовать руки — нет"

    Что мне кажется куда большей проблемой — это взаимодействие разных устройств. Я думаю, что в будущем никто уже не будет восхищаться одним прекрасно работающим гаджетом — будь он производства Microsoft, Apple, Philips или Sony. Ну кроме, конечно, особенных любителей гаджетов. Сегодня мы рады просто тому, как работает новый телефон, но в будущем куда важнее станет слаженная работа всей экосистемы. Пока что она раздроблена на несколько островков, плохо взаимодействующих друг с другом.

    Мой Palm Pilot был в некотором роде лучше моего нынешнего смартфона: чтобы передать визитку через Palm, нужно было просто направить одно устройство на другое и нажать кнопку. Это было абсолютно безопасно, потому что данные передавались по инфракрасному порту, и обязательно было находиться в зоне прямой видимости. С Bluetooth или Wi-Fi не только сложнее установить связь, но и сигнал идёт непонятно куда. Я, конечно, не говорю, что IR лучше, чем Bluetooth (помните, я говорил, что любая вещь хороша для одного и плоха для другого?). У IR множество проблем, но он позволяет передать сигнал в строго определённом направлении, а для некоторых задач это очень важно. Для Bluetooth ничего похожего нет.

    Я жду не дождусь, к примеру, появления электронных досок, на которые можно было бы передать информацию во время выступления и пальцем указывать на слайды, поясняя те или иные вещи. Вот, к примеру, почему эта буква 'R' перевёрнута [показывает на букву "Я" на плакате]. Такое непросто реализовать — особенно если одновременно думать о других вещах — о той же безопасности — ведь придётся везде расставить камеры.

    Мы часто создаём новые технологии, которые усложняют мир — один синдром очередного лишнего пульта в гостиной чего стоит. В ближайшее пятилетие мы начнём двигаться в другую сторону — каждая новая технология будет упрощать жизнь, а не усложнять.

    - То есть вы считаете, что будущее — за плотной интеграцией разных устройств и технологий?

    - Я думаю, что интеграция очень важна — это одна из причин, по которым я работаю в Microsoft. Эта компания участвует в большом числе самых разных бизнесов. С одной стороны, размеры компании, конечно, во многом её ограничивают, но с другой — позволяют найти специалиста практически из любой области.

    - Ещё один вопрос о будущем интерфейсов. Если мультитач и связанные с ним вещи — это сегодняшний день или ближайшее будущее, то что нас ждёт дальше?

    - Есть ещё много сенсоров, которые можно задействовать. Тем же телефоном куда легче пользоваться не посредством взаимодействия с экраном, а просто перемещая его в пространстве. С нынешнем поколением акселерометров и гироскопов это довольно сложно реализовать (особенно зум). Я думаю, мы увидим в гаджетах и другие сенсоры... С другой стороны, конечно, с Surface так не поработаешь, если ты не Супермен. В общем, это зависит от устройства.

    Мне, к примеру, интересно, что должно произойти, чтобы люди снова начали носить часы. Я, наверное, в этой комнате единственный человек с наручными часами. Люди перестали носить часы, потому что они есть в телефонах. Сегодня часы — это скорее украшение. С другой стороны, и гаджеты постепенно становятся чем-то вроде украшений.

    - Как вы думаете, экранные клавиатуры со временем станут неактуальными?

    - Я думаю, экранные клавиатуры неплохи, если нужно сделать пару несложных вещей. Но очень сомневаюсь, что из обычной клавиатуры и сенсорной вы бы для написания статьи выбрали сенсорную. На ней практически невозможно печатать вслепую. Механическая клавиатура — прекрасное изобретение, и я не думаю, что оно в ближайшее время потеряет актуальность.

    Лично я терпеть не могу экранные клавиатуры. Я думаю, даже это [указывает на те самые часы с тачскрином] удобнее. Потому что ими можно пользоваться, не склоняя голову, они точнее распознают текст и никаких проблем со слишком толстыми пальцами.

    - Выходит, нынешние телефоны в этом плане отстают от Palm Pilot пятнадцатилетней давности?

    - Graffiti в Palm Pilot вырос из моего изобретения. Я занимался разработкой первой системы компьютерного ввода при помощи условных символов.


    Система Graffiti, использовавшаяся в карманных компьютерах Palm

    Мы до сих пор очень слабо продвинулись в этой области, а ведь улучшить что-то не так уж сложно. Никто уже не помнит, а в старых телефонах Microsoft была очень интересная система. Каждое нажатие на клавишу требует времени, и всегда есть вероятность совершить ошибку. Обычно для того, чтобы ввести заглавную букву, нужно нажать Shift, а затем нужный символ. Мы же сделали экранную клавиатуру, где нужно было нажать и провести пальцем наверх, чтобы выбрать заглавную букву. Для переноса строки тоже использовался жест — вниз и налево.

    Я никого не призываю избавляться от экранных клавиатур — они полезны. Но они не могут быть заменой, а лишь дополнением. И даже если приходится пользоваться экранными клавиатурами, их можно значительно улучшить. Причём речь пока что идёт лишь о каких-то элементарных вещах. Если их до сих пор никак не доделают, то откуда ждать более сложных нововведений?

    - Вы говорили, что телефону Simon не хватает браузера. А теперь становится понятно, что интернет плохо приспособлен к новым устройствам. Или же можно как-то лучше приспособить мобильные устройства для интернета?

    - От этого, конечно, все страдают. Есть прекрасные, но сделанные для 24-дюймовых мониторов веб-страницы, которые становятся бесполезными на экране телефона. Даже «Википедией» на телефоне пользоваться не так просто. Рынок рано или поздно изменит дизайн онлайнового контента. Всё больше людей пользуется интернетом с телефонов, а значит даже думать о создании контента нужно по-другому.

    Один из моих исследовательских проектов, ещё в Silicon Graphics, включал в себя серьёзную работу, посвящённую онлайновым страницам, которые выглядели по-разному в зависимости от того, где ты находишься, и даже что делаешь. Данные в зависимости от этого предоставлялись в том виде, в котором они могли понадобиться.

    Похожая история произошла с ноутбуками — их поначалу видели как портативные версии настольных компьютеров. Телефоны тоже сперва выглядели как крошечные версии десктопа. Но это то же самое, что считать флейту — маленькой трубой. Это разные инструменты, у них разный язык. В случае с телефонами — отчасти, конечно, дело в «железе», но существенная доля проблемы — в контенте. И у Microsoft и у компаний вроде Adobe есть наработки в этой области. Microsoft Expression Blend — одна из них.

    - В вашей биографии есть пункт об исследовании, связанном с законом Фиттса. Считаете ли вы, что идеи о дизайне можно доказать при помощи формул?

    - Отчасти это так. Единственный способ узнать, правильно ли что-то — проверить. Теория даёт некое приближение к этому. Когда есть идея, лучше хотя бы на салфетке прикинуть, как она будет работать на практике, чтобы потом продолжить исследования на более высоком уровне. Или когда что-то не работает — я могу спросить «почему?» и проверить.

    Помните, я говорил о слишком мелких клавишах? Если знать размер клавиатуры и размер клавиши, то можно посчитать, насколько быстро получится печатать. Уже после нескольких тестов можно сказать, насколько, к примеру, нужно увеличить расстояние между клавишами, и как это повлияет на результат. Если же результаты тестов окажутся хуже нашего предположения, значит либо теория неверна, либо реализация хромает. Ну а если результаты окажутся лучше обычного, значит, это чудеса науки. Так или иначе, теоретическая основа позволяет достигать большей эффективности.

    - Сейчас много разговоров об A/B-тестировании. В Google, к примеру, это очень популярная методика. Что вы о ней думаете?

    - Я считаю, что A/B-тестирования недостаточно. Это, конечно, не плохая практика, потому что традиционно в компьютерной индустрии делалось только «A-тестирование», мы сравнивали "A" с "A" — то есть работает или нет. Но по моим наблюдениям, в дизайне никогда не бывает меньше пяти решений. Когда работаешь с фокус-группой и спрашиваешь, нравится ли продукт и готовы ли люди его купить, если показать только один вариант, никто не скажет «я бы никогда не стал использовать эту дребедень». Уже хотя бы потому что они не хотят тебя обижать. Ну и вообще, люди всегда ставят оценики выше, чем им кажется — потому что думают: «вдруг это я дурак, а не программа дурацкая?».

    "A/B тестирования недостаточно. По моим наблюдениям, в дизайне никогда не бывает меньше пяти решений"

    Как-то раз у нас было три варианта дизайна — первым трём группам мы показали по одному из них, а четвёртой — все три. В последней люди сразу могли выбрать вариант, который бы никогда не стали использовать. Они вообще всё оценивали хуже, и это дало куда больше информации. Когда делаешь сравнительное тестирование, люди понимают, что ты сам не знаешь, чего хочешь, значит открыт новым идеям и достоин честного ответа.

    Я рад, что мы об этом успели поговорить, потому что этот вопрос затрагивает сам процесс исследования, а не только конечные продукты. Любые изобретения в самом способе разработки обычно окупаются раз в десять лучше чем технологические инновации. Это особенно важно, потому что сегодняшние проблемы часто связаны не с отсутствием технологий, а с неумением правильно подойти к дизайну. Я думаю, что в Google неплохо решают эти проблемы.

    - У вас были исследования связанные с музыкой. Как вы думаете, можно ли считать, что в этом направлении с тех пор есть продвижения?

    - Частично изменились и технологии, но мне не кажется, что всё дело не в них. Когда я начинал заниматься компьютерной музыкой, это было элитарной и недешёвой вещью. Теперь же каждый может себе позволить этим заниматься. Другой хороший пример — видеоконференции. Моему отцу 92 года, и он использует видеочат, чтобы общаться со своими правнуками, находящимися на другом конце страны. В восьмидесятые это было сложно себе представить — даже мне, а я видел эту технологию в 1987.

    С музыкой то же самое. Можно подключить гитару к смартфону и выбирать из полного набора примочек. Или с лёгкостью организовать студию звукозаписи. Мой друг работает в музыкальной индустрии и, имея доступ к огромной студии, пишет всё на обычный ноутбук. В общем, не то, чтобы технологии становились лучше, но они становятся дешевле и доступнее. То есть настоящие изменения — социальные. Любой ученик начальной школы сегодня может иметь дома профессиональную звукозаписывающую студию. Единственное, чего ему может не хватать — музыкального таланта.

    Сейчас же всё настолько легкодоступно, что я даже думаю — не слишком ли сильно новые технологии подталкивают тратить время на забавы и так никогда ни на чём не сосредоточиться по-настоящему. Ведь что бы ты ни делал, нужно много практиковаться — это требует усилий и работы над собой.

    - Вы как-то писали для Businessweek о вдохновении — есть ли у вас универсальные советы дизайнерам и изобретателям?

    - Да, у меня есть несколько хороших советов. Первый — лучше ошибиться и чему-то научиться, чем быть правым и гордым. Второй — что бы ты ни делал, всегда нужно иметь больше одного ответа. Третий — иногда нужно перестать изобретать и начать замечать то, что у тебя перед носом. Ключевой трюк — уметь посмотреть другими глазами на вещи, которые видят все. Легко понять, что этот совет работает, потому что любое виденное нами изобретение кажется очевидным — сразу начинаешь спрашивать себя, «почему же я об этом не подумал?» Я это называю удивительной очевидностью. Но как научиться замечать такие вещи раньше других? Как и всё остальное это требует практики — нужно постоянно искать, чтобы стать лучшим искателем.


    К оглавлению

    Астрофизик Сергей Попов о гравитационных волнах

    Алла Аршинова

    Опубликовано 02 декабря 2010 года

    Общая теория относительности – одна из самых проверенных и надежных теорий в современной физике. Почти все предсказания в рамках этой теории были подтверждены экспериментально. Но, как известно, в ней остаётся один не проясненный до конца вопрос: существование гравитационных волн. В том, что они есть, никто из научного мира всерьез не сомневается, потому что наука располагает очень внушительными косвенными свидетельствами.

    Обнаружение гравитационных волн может произойти в трех случаях. Во-первых, если ученым повезет, и в нашей галактике произойдет, например, взрыв сверхновой. Тогда уже существующие земные детекторы, вероятно, смогут зафиксировать гравитационную волну, рожденную этим событием. Во-вторых, волны могут быть обнаружены от слияния нейтронных звезд или черных дыр, если будет повышена чувствительность существующих установок. И третий вариант – это успешная работа космических детекторов гравитационных волн, которые пока находятся на этапе проектирования и в космос отправятся еще не скоро.

    О том, как работают детекторы гравитационных волн, и когда можно ждать от них результатов, рассказывает кандидат физико-математических наук, старший научный сотрудник Государственного астрономического института им. П. К. Штернберга Московского государственного университета Сергей Попов.


    – Что такое гравитационные волны?

    – Начнем с аналогии. Представьте себе электрический заряд. Вокруг есть электрическое поле, но никакой волны нет. Если мы начнем ускорять заряд, поле будет «отрываться» – пойдет электро-магнитная волна. Она уже живет сама по себе. Примерно то же самое происходит с гравитационным полем. Вокруг массивного тела есть поле. Если мы начнем его двигать (например, если тело вращается вокруг другого объекта, как Земля вокруг Солнца), то опять-таки гравитационное поле будет «отрываться» – побежит гравитационная волна.

    Всё вокруг заполнено гравитационными волнами, поскольку их испускают почти все движущиеся объекты. Например, вы, помахав рукой, испустили их. Не испускает гравитационных волн только вращающаяся идеальная сфера или вращающийся симметрично сплюснутый шар. Но волны очень слабые, а потому зарегистрировать их сложно. Сколь-нибудь заметный эффект можно ожидать, лишь наблюдая процессы астрономического масштаба. Например, взрыв сверхновой приводит к всплеску гравитационных волн. Двойные системы испускают гравитационные вволны, когда звезды кружат вокруг общего центра масс. Наиболее мощные сигналы ожидают от слияния нейтронных звезд или черных дыр. В последнем случае основная доля энергии уносится именно гравволнами.

    – В ОТО гравитация связана с искривлением пространства. Гравитационные волны – это колебания пространства?

    – Поскольку Общая теория относительности – это геометрическая теория гравитации, то, в самом деле, можно говорить о гравволнах как о «волнах пространства-времени». По пространству-времени бежит возмущение. С точки зрения наблюдателя проходящая гравитационная волна выглядит как возмущение приливных сил.

    – Почти никто не сомневается, что гравитационные волны есть, но доказательства их существования, между тем, существуют только косвенные. Может ли то, что принято считать проявлением гравитационных волн, на самом деле оказаться совсем другим физическим явлением?

    – Самое яркое проявление «работы» гравволн – изменение параметров орбит двойных звезд. Наиболее очевиден эффект в случае двойных радиопульсаров, особенно, если это пара из двух нейтронных звезд. На мой взгляд (равно как и на взгляд подавляющего большинства физиков и астрономов), объяснить данные по таким радиопульсарам чем-то, кроме гравволн, нельзя. С другой стороны, пока прямой регистрации нет.

    – Почему так важно обнаружить гравитационные волны?

    – Во-первых, просто для того, чтобы подтвердить их существование. Это один из важных моментов в нашем понимании того, что такое гравитация и как она работает. Во-вторых, регистрируя сигнал от источников, мы можем получать уникальную информацию о них. Скажем, если мы регистрируем слияние двух нейтронных звезд, то мы можем получать уникальную информацию о строении этих объектов. А это уже не просто академически-астрономический интерес, а выход на квантовую хромодинамику, то есть на ядерную физику. Если же мы регистрируем слияния черных дыр, то мы получаем один из лучших способов показать, что черные дыры реально существуют. Очень большой прорыв станет возможен, когда будут обнаружены так называемые космологические или реликтовые гравитационные волны. Они должны быть связаны с самыми первыми мгновениями жизни Вселенной – со стадией инфляции. Это будет самая непосредственная информация о Большом взрыве.

    – Считается, что есть два основных подхода к созданию гравитационных детекторов (резонансные твердотельные детекторы и лазерный интерферометр). На каком принципе работают оба вида? Какой из них эффективнее?

    – В случае твердотельного детектора проходящая волна сжимает и растягивает «болванку». Растяжения совсем небольшие, поэтому заметить их сложно, особенно учитывая, что болванка и так испытывает колебания, просто потому что имеет ненулевую температуру. Чтобы «шум» не мешал работе приборов, в установке используется криогенная техника. Пока чувствительность таких установок недостаточно высока. Правда, есть интересные проекты, реализация которых может изменить ситуацию.

    Если же у нас есть интерферометр, то измеряется расстояние между зеркалами. В таких устройствах на нескольких сотнях метров или даже нескольких километрах друг от друга в трубе с низким давлением подвешены зеркала. Между ними бегает лазерный луч. У интерферометра два «плеча», образующие прямой угол. Гравволна, проходя, смещает зеркала друг относительно друга. Наблюдая интерференционную картинку, мы можем заметь ничтожные изменения расстояния между зеркалами.

    Сейчас чувствительность лазерных детекторов намного выше, чем у твердотельных детекторов, и с большой вероятностью в ближайшие лет пять можно рассчитывать на успех.

    – Крупнейший и один из самых интересных из готовящихся к запуску детекторов – LISA. Как он устроен?

    – LISA – космический проект. Немного упрощая, можно сказать, что гравитационный интерференционный детектор, как и многие другие, работают на длине волны порядка своего размера. Представим, что мы хотим «почувствовать» волну от слияния двух нейтронных звезд. Основной сигнал излучается, когда объекты почти касаются друг друга. Это соответствует масштабу километров в 20. Значит и детекторы должны быть километровыми, что мы и видим на примере LIGO, VIRGO, GEO600. А если мы хотим детектировать сигнал от сливающихся сверхмассивных черных дыр? Они имеют размер порядка астрономической единицы. Поэтому и детектор должен быть таким. На Земле ему места нет. Значит – в космос.

    Болванку длиной в десятки миллионов километров не сделать. Значит, делаем лазерный интерферометр. Три спутника образуют треугольник и между ними бегают лазерные лучи. Проходящая волна смещает спутники друг относительно друга, что сказывается на интерференционном сигнале.

    – Как вы считаете, действительно ли этот эксперимент увенчается успехом? Ведь замысел настолько сложный, что его осуществление кажется неправдоподобным.

    – Да, технологии там не то что сложные, но иногда просто еще не существующие. Собственно поэтому этот (и многие другие) научные эксперименты такие дорогие. Кстати, и «попутная выгода» от реализации многих научных программ связана именно с созданием новых технологий.

    Над проектом работают и американское (NASA), и европейское (ESA) космические агентства. Вероятность аварии или какого-то серьезного сбоя в космической технике всегда существует, тем более, когда речь идет не о сороковом запуске хорошо отлаженного агрегата, а о принципиально новом проекте. Но я думаю, что все будет хорошо. Вопрос может стоять только о выходе на плановую чувствительность.

    – Наземные детекторы работают уже давно. В чем их специфика? От какого из них можно ждать результатов в первую очередь? Вообще, не утопично ли надеяться «зафиксировать» гравитационные волны на Земле?

    – Было бы утопично – люди бы не вкладывали такие средства. LIGO и VIRGO разрабатывались так, чтобы после выхода на окончательную чувствительность зарегистрировать сигнал в течение года с высокой вероятностью. Но тут надо заметить, что прошедшие годы работы были на довольно низкой (хотя и плановой для соответствующего этапа) чувствительности. Если бы слияние нейтронных звезд произошло в относительно близкой галактике, то и LIGO, и VIRGO, и GEO600 зарегистрировали бы всплеск. Если бы в нашей Галактике взорвалась сверхновая, то, может быть, даже твердотельные детекторы дали бы результат (если взрыв сильно асимметричен). Но не повезло. А вот чувствительность advanced LIGO такова, что сигнал должен быть в течение года уже независимо от везения.

    –От чего зависит чувствительность этого детектора?

    – Чувствительность определяется тем, насколько маленькие изменения расстояний между парами зеркал мы можем заметить, а также способностью выделить «нужное» нам изменение на фоне случайных колебаний, то есть выделить сигнал на фоне шума, а сам шум подавить.

    – Как гравитационные детекторы могут использоваться? Можно ли сделать «гравитационный телескоп»?

    – Несколько детекторов вместе – и есть гравитационный телескоп. Собственно, уже две установки LIGO смогут определять направление на источник с достаточно хорошей точностью. Совсем недавно появилась новость, что LIGO-подобный детектор будет построен в Австралии. Что же касается «практической пользы», то их от гравитационных детекторов может быть несколько. Во-первых, это создание новых технологий. Конструкция установок потребовала разработать много новых технологий и материалов. Они связаны, например, с лазерными технологиями, с технологиями стабилизации зеркал и избавления от различных видов шумов (тепловой, сейсмический и т.д.)

    Во-вторых, как обычно, крупные научные проекты – это еще и школа по подготовке очень высококвалифицированных кадров: и исследователей, и инженеров. Наконец, хотя детекторы пока и не поймали гравволновой сигнал, они много что «слышат». В частности, сейсмический шум. Так что некоторые детекторы (например, твердотельные, которые вряд ли дадут астрофизический сигнал, если только не повезет очень сильно) дают полезную информацию о нашей планете.

    – Вы прогнозировали, что в 2015 году Нобелевскую вручат той группе ученых, которая зарегистрирует гравитационные волны. Сейчас конец 2010. Не изменился ли Ваш прогноз?

    – Все такие прогнозы – дело неблагодарное, и не надо к ним очень серьезно относиться. Advanced LIGO теперь по планам заработает в 2014 году. Так что прогноз немножко сдвигается J Поэтому сейчас я бы говорил о 2017-18 годах.

    – Гравитационные волны практически неуловимы. Допускаете ли вы, что они так и не будут обнаружены?

    – Если на чувствительности advanced LIGO сигнала не будет, то это будет большей сенсацией, чем регистрация сигнала. Поверить в такую возможность мне довольно трудно. С точки зрения астрофизики, мы достаточно много знаем о жизни компактных объектов, чтобы надежно говорить о темпе слияния нейтронных звезд и черных дыр. С точки зрения физики картина тоже довольно ясная. То есть ситуация гораздо более определенная чем, скажем, с бозонами Хиггса. Поэтому отсутствие сигнала будет большим сюрпризом, который должен привести к существенному пересмотру наших взглядов на устройство мира. Но вряд ли это произойдет.


    К оглавлению


    Примечания:



    computers Коллектив Авторов Цифровой журнал «Компьютерра» № 45 Оглавление Статьи

    Кивино гнездо: Шифровальщик устал... Автор: Берд Киви

    Как ищут экзопланеты и что поможет их найти Автор: Юрий Ильин

    QNX в планшете RIM: откуда взялась эта платформа? Автор: Евгений Крестников

    Кивино гнездо: За кулисами кибервойны Автор: Берд Киви

    Интервью

    Дмитрий Вибе (ИА РАН) об астрофизических измерениях Автор: Алла Аршинова

    Сергей Анурьев («ЛитРес») об электронном книгоиздании Автор: Юрий Ильин

    Отец мультитача о будущем интерфейсов Автор: Андрей Письменный

    Астрофизик Сергей Попов о гравитационных волнах Автор: Алла Аршинова

    Колумнисты

    Василий Щепетнёв: Дело для олигарха Автор: Василий Щепетнев

    Кафедра Ваннаха: Роботы-убийцы или датские деньги? Автор: Ваннах Михаил

    Василий Щепетнёв: Человек в пикейном жилете Автор: Василий Щепетнев

    Василий Щепетнёв: Принцип одной запятой Автор: Василий Щепетнев

    Кафедра Ваннаха: Забытое немецкое слово Автор: Ваннах Михаил

    Анатолий Вассерман: Сенсорные интерфейсы Автор: Анатолий Вассерман

    Голубятня-Онлайн

    Голубятня: Сидр № 9 Автор: Сергей Голубицкий

    Голубятня: Буффонада анахронизма Автор: Сергей Голубицкий

    Голубятня: Три звука Автор: Сергей Голубицкий

    Ноутбуки

    История ноутбуков: из шкафа в карман — 2 Автор: Роман Бобков

    Альтернативные оболочки и ОС для нетбуков Автор: Евгений Крестников

    Всё, что нужно знать о ноутбуках Apple Автор: Олег Нечай

    Безопасность и биометрия в Windows 7 Автор: Александр Деревянко

    06.12.2010 ru
    Vyacheslav Karpukhin vyacheslav@karpukhin.com ct2fb2 converter by Vyacheslav Karpukhin 06 Dec 2010 http://www.computerra.ru Текст предоставлен правообладателем daf786f4-00c0-11e0-b769-00254bcb7226 1.0

    Version 1.0 -- document generated

    Компьютерра

    29.11.2010 - 05.12.2010

    >

    Статьи

    id="vision_0">

    Кивино гнездо: Шифровальщик устал...

    Берд Киви

    Опубликовано 29 ноября 2010 года

    Когда в 1980-е годы американское ЦРУ запланировало расширение своей штаб-квартиры в Лэнгли, то для украшения внутреннего двора нового комплекса зданий было решено установить какое-нибудь неординарное произведение искусства — что называется «со смыслом». Условия конкурса для художников-скульпторов были сформулированы весьма широко — типа «произведение должно порождать чувства благополучия и надежды» — и при этом сопровождались достаточно заманчивой суммой комиссионных в размере 250 тысяч долларов для автора наиболее интересного предложения.

    Победителем конкурса стал вашингтонский скульптор-авангардист Джим Сэнборн, предложивший оригинальную концепцию монумента из меди, гранита и окаменевшего дерева. Центральной частью его скульптуры был здоровенный медный лист, сверху донизу покрытый буквами таинственной криптограммы. Причем знаки зашифрованного текста предполагались отнюдь не случайными, а реально скрывающими в себе нечто содержательное — скажем, что-нибудь глубокомысленное о сборе и анализе информации как сути работы разведки.

    Замысел композиции в целом руководству агентства понравился. А поскольку о нетривиальном предмете под названием криптография Джим Сэнборн имел представление, мягко говоря, смутное, то художника свели с Эдвардом Шейдтом (Edward Scheidt), отставным ветераном ЦРУ, прежде возглавлявшим криптографический центр разведслужбы. Шейдт преподал скульптору краткий курс искусства тайнописи и попутно помог придумать конкретные шифры для использования в задуманном монументе, получившем название Kryptos (в переводе с греческого «скрытое»).


    Торжественная церемония открытия монумента «Криптос» состоялась в новой штаб-квартире ЦРУ ровно двадцать лет назад, в первых числах ноября 1990 года. Покрытый зеленой патиной, красиво изогнутый в форме буквы S, лист меди толщиной полдюйма и высотой около 4 метров, словно древний лист манускрипта, выходил из «свитка» — вертикально поставленного ствола окаменелого дерева. Насквозь пробитые в листе символы латинского алфавита, числом около 1800, формировали узор криптограммы, которой на многие годы будет суждено озадачить не одну тысячу любителей криптоанализа по всему миру.

    Как признается ныне Сэнборн, хотя он и предполагал, что придуманные им шифры вскрывать будет непросто, для него стало полной неожиданностью, что дешифрование криптограммы растянется столь надолго: «Ну, я-то предполагал что первые три фрагмента будут дешифрованы примерно за несколько недель. Реально же на это потребовалось несколько лет. Я не уверен, что знаю, почему так происходит, но по какой-то причине все это занимает очень много времени».

    То, что в криптограмме Kryptos скрыты четыре разных фрагмента текста, которые зашифрованы с помощью четырех шифров, стало общеизвестно лишь в 1999 году. Тогда свой вариант расшифровки трех первых частей опубликовал калифорнийский компьютерщик и криптограф Джеймс Гиллоглы, сумевший вскрыть шифры при помощи собственного специализированного ПО для криптоанализа. Как только появились материалы Гиллоглы, их сразу же подтвердили и в ЦРУ, где один из аналитиков спецслужбы, Дэвид Стейн, вскрыл те же три криптограммы примерно на полтора года раньше — потратив на них, по собственному признанию, несколько сотен обеденных перерывов. Причем сделал он это, что называется, «по старинке», исключительно при помощи карандаша и бумаги. Результаты дешифрования Стейна были заслушаны в ЦРУ на специальном семинаре в феврале 1998, но дальше стен разведывательного сообщества этот результат было решено пока не распространять.

    Еще через несколько лет просочилась информация и из наиболее скрытной спецслужбы, Агентства национальной безопасности США, где многоопытные криптоаналитики-профессионалы вскрыли криптограммы Сэнборна, говорят, еще в 1992 году. Но — как это у них обычно принято — никому о взломе не рассказали. Впрочем, даже из АНБ по сию пору не поступало сведений о вскрытии четвертой, самой важной, возможно, части криптограммы. По личному свидетельству Джима Сэнборна, он и его наставник Эдвард Шейдт вполне умышленно усложнили задачу, специально сконструировав четвертый шифр наиболее трудным для вскрытия. Еще больше усложняет задачу то, что четвертая часть криптограммы, в сообществе взломщиков Kryptos именуемая K4, имеет совсем небольшую длину — всего 97 знаков. А это обстоятельство само по себе затрудняет вскрытие любого шифра, не говоря уже о сложном.

    При этом, впрочем, автор криптограммы отнюдь не стремился оставить свою криптозагадку недораскрытой, а потому, по его словам, расположил в предыдущих сегментах разного рода подсказки, облегчающие дешифрование четвертой части. Что именно это за подсказки, Джим Сэнборн, правда, не уточняет.

    О том, что представляют собой три дешифрованных фрагмента — K1, K2 и K3 — в подробностях можно почитать на множестве веб-сайтов, посвященных загадкам Kryptos, начиная со статьи в Википедии. Здесь же будет достаточно ограничиться лишь самым кратким изложением их содержания, дабы стало более понятным нынешнее возбуждение в кругах любителей-криптоаналитиков по поводу обнародованной только что Сэнборном первой явной подсказки в помощь к дешифрованию K4.

    Итак, первая — совсем короткая — секция K1 представляет собой поэтическую фразу, придуманную самим скульптором («Меж смутною тенью и отсутствием света лежит иллюзии нюанс»). Главным «изюмом»-подсказкой этого фрагмента может оказаться специально внесенная автором (по его собственным намекам) ошибка в написании одного из вариантов многократно использованного криптоключа (palimpcest вместо palimpsest, из-за чего слово «иллюзия» дешифруется как IQLUSION).

    Вторая секция криптограммы, K2, содержит географические координаты штаб-квартиры ЦРУ и преднамеренно туманно указывает на «нечто» спрятанное где-то на территории агентства: «Знают ли в Лэнгли об этом? Должны бы — ведь это зарыто где-то там. Кто знает точное место? Только WW». В этой части также отмечены очевидные ошибки в написании слов (UNDERGRUUND), возможно, указывающие на подсказки. О том, кто имеется в виду под WW, станет ясно чуть позже.

    Третий сегмент, K3, в несколько видоизмененной форме (и опять с явными ошибками) цитирует фрагмент из отчета знаменитого египтолога Говарда Картера о вскрытии им гробницы фараона Тутанхамона 26 ноября 1922 года: «Медленно, отчаянно медленно, остатки обломков, которыми была завалена нижняя часть прохода, были удалены. Трясущимися руками я проделал крошечную дыру в левом верхнем углу проема. А затем, расширив немного отверстие, я просунул туда свечу и заглянул внутрь. Горячий воздух, покидавший камеру, заставлял пламя трепетать, однако подробности помещения все же просматривались во мраке. Вы что-нибудь видите?». Этот волнующий эпизод истории, по признанию Сэнборна, будоражил его с детства. В скульптуру же — опять-таки по туманным намекам художника — он попал потому, что дает подсказку относительно содержания четвертого сегмента.

    Увы, несмотря на все усилия криптоаналитиков — как индивидуальные, так и коллективные, в составе специально созданной под это группы мозгового штурма на портале Yahoo — принципиально важный сегмент K4 так и остается недешифрованным. При этом, начиная с 2003 года, начали обозначаться первые признаки истерично-фанатичного интереса к тайнам скульптуры Kryptos. Причина ажиотажа достаточно ясна: вышедший в тот год супербестселлер «Код да Винчи» по инициативе автора, Дэна Брауна, на обложке книги содержал фрагмент криптограммы знаменитого монумента. Этого оказалось достаточно, чтобы и без того немалое число «взломщиков» стремительно пополнилось армией любителей конспирологии и прочих темных тайн истории.

    К 2006 году Джим Сэнборн, изрядно пораженный столь продолжительным интересом публики к его произведению, решил написать мемуары об истории создания Kryptos. И неожиданно для себя обнаружил, что допустил в тексте скульптуры принципиально важную ошибку. Готовя рукопись, Сэнборн впервые стал побуквенно сверять исходные тексты своего замысла с результатами их дешифрования в 1999 году и лишь тут заметил, что собственноручно удалил из криптограммы важный ключ к дешифрованию. В процессе изготовления монумента скульптор убрал в секции K2 из текста одну из букв "X", применявшихся в качестве знака раздела. Сделал он это из сугубо эстетических соображений, «для общей сбалансированности картины», по криптографическому своему неведению предположив, что никакой особой роли для расшифровки она не играет. И лишь теперь, внимательно прочтя вскрытый аналитиками текст, Сэнборн понял, что при дешифровании оказался неправильно восстановлен небольшой фрагмент, содержавший важную подсказку к вскрытию четвертой секции.

    Прозрев, скульптор поспешил публично покаяться, признавшись, что сам невольно всех запутал. Теперь, после исправления, искаженный фрагмент дешифрованного текста в самом конце сегмента превратился из совершенно туманного словосочетания «ID BY ROWS», в чуть более конкретные слова «слой два» (LAYER TWO). Однако в чем именно заключается эта «важная подсказка» по сию пору так и остается неустановленным, поскольку разгадать шифр четвертой секции все равно не удалось.

    Зато что удалось наверняка, так это вновь подогреть несколько нездоровый интерес публики к загадочной скульптуре. Все тот же Дэн Браун, чутко реагирующий на интересы читателей, легко встроил собственные идеи относительно расшифровки криптограммы в сюжет очередной истории из своей саги о похождениях суперпроницательного профессора Роберта Лэнгдона. В романе «Утраченный символ», вышедшем в 2009 году, криптограмма монумента представлена как возможный ключ к «древним секретам масонов»...

    Лихое мифотворчество Брауна, надо сказать, довольно сильно раздражает автора «Криптоса». Джим Сэнборн подчеркивает, что ни в коей мере не выступает против свободы творчества художников, однако ему совершенно не по нраву столь вольные, безответственные и ничем не обоснованные интерпретации его произведения. Особенно, если принимать во внимание тот факт, что подобные домыслы не имеют ничего общего с реальным смыслом криптограммы.

    Еще в 2005 году Сэнборн посчитал необходимым в явном виде опровергнуть одну из специфических гипотез Дэна Брауна, когда тот в контексте «Кода да Винчи» предположил, что пассаж криптограммы «точное место знает только WW» будет понят правильно в том случае, если последние две буквы читать в перевернутом виде, то есть MM. А это, соответственно, должно означать понятно кого — Марию Магдалину... В ответ на поток столь буйной фантазии романиста автор скульптуры не удержался и в одном из интервью пояснил, что на самом деле эти две буквы означают имя и фамилию Уильяма Уэбстера. То есть человека, занимавшего пост директора ЦРУ в период создания монумента Kryptos.

    По жизни сложилось так, что Уильям Уэбстер занимает совершенно уникальное место в истории США. Ни одному другому американцу, кроме него, еще не удавалось возглавлять две важнейшие спецслужбы государства — ФБР (с 1978 по 1987 годы) и ЦРУ (с 1987 по 1991). Ну а кроме того, по личному свидетельству Сэнборна, также он является одним из двух человек — за исключением самого скульптора — которые знают, как должно выглядеть полное решение криптограммы Kryptos. Первым таким человеком оказался ветеран-криптограф ЦРУ Эд Шейдт, помогавший Сэнборну с выбором и модификацией криптоалгоритмов для скульптуры. А вторым стал тогдашний директор ЦРУ Уильям Уэбстер, на церемонии открытия монумента получивший от скульптора запечатанный конверт, содержащий решение загадки...

    Поскольку в ноябре 2010 исполнилось не только ровно 20 лет с момента той торжественной церемонии, но и самому Джиму Сэнборну стукнуло уже 65, скульптор отчетливо осознал, что порядком подустал ждать, когда же его загадку окончательно раскроют. А потому решил отметить двойной юбилей действительно примечательным образом — обнародовав какую-нибудь существенную подсказку к решению K4. Таким вот образом и появилась публикация в субботнем, от 20 ноября выпуске газеты «Нью-Йорк Таймс», где автор криптограммы раскрыл шесть из 97 букв во все еще недешифрованной финальной части послания на монументе. Эти 6 последовательных букв, в K4 занимающие позиции c 64-й по 69-ю и выглядят как NYPVTT, после правильного дешифрования должны читаться как BERLIN.

    Причем буквы эти отнюдь не простые. Перед публикацией данной подсказки Сэнборн назвал ее «существенным ключом» и намекнул, что это «глобализует» скульптуру. Сгоравший от любопытства журналист тут же задал вопрос, не означает ли это, что подсказка отдаляет скульптуру от почвы в ЦРУ и вообще от США? Автор же на это ответил, что можно сказать и так. В другом интервью, теперь уже для одного из телеканалов, Сэнборн не только подтвердил подсказку BERLIN, но и упомянул в этой связи слово «направление», однако тут же словно спохватился и заявил, что должен «остановить этот разговор прежде, чем скажет слишком много».

    Еще раз подчеркнув, что лично он расценивает подсказку как важный ключ, наверняка помогающий в дешифровании криптограммы, Сэнборн на всякий случай подчеркнул, что это отнюдь не является «криптографическим ключом». То есть раскрытое слово дает лишь косвенную, а не прямую информацию для расшифровки: «Это не означает, что вы тут же все поймете. Или что открытый текст сразу же предстанет перед вами в готовом виде... Да и вообще, это никогда не будет ясным как день»... Вспоминая прошлые признания Сэнборна, последнюю фразу следует, вероятно, понимать так, что и в окончательно дешифрованном тексте останется сокрытой некая тайна. В прежних комментариях автор сообщал, что для ее отгадывания ищущим потребуется побывать непосредственно на территории штаб-квартиры ЦРУ.

    Если вспомнить интервью, пять лет назад данное Сэнборном изданию Wired.com, то там есть следующие слова: «В той части криптограммы, которую уже удалось дешифровать, я упоминаю некое событие, происходившее в то время, когда я был в агентстве (ЦРУ), и некое место, которое находится на территории агентства. Так что для того, чтобы отыскать это место, вы должны полностью расшифровать криптограмму, затем отправиться в агентство и отыскать это место».

    Хотя в явном виде Сэнборн этого никогда не говорил, есть предположения, что он мог что-нибудь зарыть в земле штаб-квартиры в то время, когда занимался установкой своей скульптуры. На это, в частности, намекает расшифрованная часть с географическими координатами (38 57 6.5 N, 77 8 44 W), которые относятся к местоположению агентства (правда, уже проводившиеся там поиски ни к чему существенному не привели). Есть и другая гипотеза — что эта финальная загадка касается другого монумента на территории штаб-квартиры ЦРУ, сооруженного из нескольких плит Берлинской стены, которые примерно в то же время были подарены разведслужбе правительством Германии.

    Эта последняя гипотеза особенно хороша тем, что непосредственно перекликается с последней подсказкой Сэнборна — BERLIN. А на суть «глобализующего» характера финальной части криптограммы указывает, возможно, и еще одна подсказка — из уст криптографического наставника скульптора. В одном из интервью Эд Шейдт мимоходом отметил, что математика — отнюдь не единственный способ вскрывать криптограмму: «Если кто-то владеет математическими методами вскрытия — отлично, это наиболее очевидный подход к работе для такого рода людей. Но иногда — хотя это и звучит плохо — вы можете знать чересчур много и из-за этого упустить верное решение. Лингвистика также играет определенную роль в криптографии»...

    Иначе говоря, вполне может оказаться и так, что финальная часть дешифрованной криптограммы окажется не на английском, а на ином языке — скорее всего, на немецком. В каком-то смысле подтверждением этой гипотезы можно считать и все последующее творчество Джима Сэнборна, поскольку он в своих произведениях еще не раз возвращался к шифрам, секретам и буквам, причем многие из них были не только из английского языка, но также из русского, арабского и так далее (см. персональный веб-сайт художника).

    Ну и самое, возможно, занимательное во всей этой истории то, что даже два главных персонажа, которые считают, будто им о загадках Kryptos известно все, в действительности могут ошибаться. В одном из недавних интервью Джим Сэнборн решил признаться, что и его криптонаставник Шейдт, и экс-директор ЦРУ Уэбстер только думают, что им известно полное решение: «Но знаете ли, ведь я не был до конца честен с Уэбстером... И я уверен, что впоследствии он это понял. Я имею в виду, что это как часть шпионской сделки. Ведь обман там повсюду... Поэтому я совершенно определенно не дал ему самую последнюю часть, которая никогда не была расшифрована»...


    К оглавлению

    id="vision_1">

    Как ищут экзопланеты и что поможет их найти

    Юрий Ильин

    Опубликовано 01 декабря 2010 года

    Экзопланеты — то есть планеты, вращающиеся на орбитах звёзд за пределами Солнечной системы, — на сегодняшний день представляют собой эдакий «запретный фетиш» для мировой астрономии.

    С начала прошлого столетия среди учёных было весьма распространено мнение, что мы во Вселенной одни, что Земля и вся Солнечная система — уникальное явление, ничего подобного больше нигде нет.

    Надо сказать, что первые обнаруженные экзопланеты сначала вселили много энтузиазма, но очень быстро его погасили. Почему? Во-первых, потому что эти планеты ничем не напоминали Землю, во-вторых, мало походили даже и на газовые гиганты Солнечной системы. Как и первая такая планета, открытая в 1988 году (хотя окончательно подтвердить её существование удалось лишь в 2002), так большинство из 504 ныне известных (подтверждённых) экзопланет, относятся к газовым гигантам. Многие из них довольно существенно превосходят по размерам и массе «наш» Юпитер и вращаются на очень близкой к своему солнцу орбите. Поэтому их называют «горячими Юпитерами».

    Лишь совсем недавно новейшее астрономическое оборудование стало позволять астрономам обнаруживать твёрдые планеты, сопоставимые по массе с Землёй. Но и здесь всё непросто: наименее массивная из всех известных на сегодня экзопланет является Gliese 581 e, обладающая массой не менее 1,7 земной. При этом она обращается вокруг своей звезды на расстоянии 0,03 астрономических единицы и делает один оборот вокруг звезды за 75,58 часа.

    Астрономическая единица — это расстояние от Солнца (нашего) до Земли (около 149 597 871 км). Расстояние 0,03 а.е. означает, что на поверхности Gliese 581e царит форменный ад, даже несмотря на то, что Gliese 581 является красным карликом — намного более холодной звездой, чем Солнце.

    На сегодняшний день мировой астрономии не известно ни одной «подтверждённой» планеты, которая имела бы массу, примерно равную массе Земли, и находилась бы в «золотом поясе» — то есть на таком расстоянии от своей звезды, чтобы на её поверхности могла существовать вода в жидком состоянии и достаточно плотная кислородная атмосфера.

    Один из наиболее вероятных кандидатов — гипотетическая пока что планета Gliese 581 g. Её существование до сих пор так и не подтверждено сторонними наблюдениями. Если, однако, выкладки астрономов, «обнаруживших» её, верны, то этот объект имеет массу где-то в 3-4 раза превосходящую земную, и находится как раз на том расстоянии, чтобы на его поверхности могла быть жидкая вода и атмосфера. Но поскольку Gliese 581 — красный карлик, его «золотой пояс» оказывается весьма близок к поверхности звезды. Как следствие, планета должна находиться в спин-орбитальном резонансе, то есть под воздействием гравитации звезды орбитальный период планеты и период её обращения вокруг своей оси синхронизируются, вследствие чего планета всегда обращена одной стороной к звезде. Примерно как Луна к Земле.

    Следовательно, на одной стороне Gliese 581 g царит пекло, на другой — ледяная пустыня, и только зоны «вечного рассвета» и «вечного заката» могут быть теоретически пригодны для обитания; и то — высказывались мнения, что из-за разницы температур на разных полушариях планеты, на её поверхности должны бушевать такие бури, что вероятность существования какой-либо жизни весьма и весьма низка.

    Опять же, всё это теории и спекуляции. Факт тем временем остаётся фактом: из 504 известных на конец ноября планет ни одной «сестры-близнеца» Земли нет, большая часть относится к классу «горячих Юпитеров» и имеет очень вытянутые орбиты, мало похожие на те, на которых обращаются планеты Солнечной системы.

    Почему такой «перекос» в данных? Причина — в методах поиска и возможностях современного астрономического оборудования.

    Об этом и поговорим подробнее.

    Основные методы поиска экзопланет

    Поиск и наблюдение экзопланет, увы, куда более затруднительный процесс, нежели наблюдение звёзд, галактик, чёрных дыр и других что-нибудь излучающих объектов. Прямое наблюдение экзопланет в оптическом диапазоне или с помощью радиотелескопов — современных, во всяком случае, довольно затруднительно, а в подавляющем большинстве случаев — и просто невозможно.

    Планеты не излучают собственный свет в видимом спектре — только отражённый. Большую часть энергии они отдают в инфракрасном диапазоне. Только с помощью очень чувствительных инфракрасных телескопов возможно прямое обнаружение таких небесных тел, при этом необходима ещё и сложная процедура «отделения зёрен от плевел» — то есть из суммарного излучения солнца и планеты необходимо вычитать излучение самого Солнца.

    Всего четырнадцать планет были обнаружены с помощью прямых наблюдений — в оптическом или радиодиапазонах.

    Поэтому чтобы найти большинство экзопланет используются косвенные методы. Самым очевидным из них, но отнюдь не самым эффективным стал метод наблюдения транзитов. Иными словами, если (ключевое слово — «если») экзопланета в какой-то момент оказывается точно между Землёй и своей звездой, то она, проходя через диск этой звезды, едва заметно её затмевает, что приводит к кратковременному падению светимости.

    Фотометрические наблюдения позволяют построить график колебаний блеска звезды во времени, по которому затем вычисляется период обращения планеты и её радиус. Но: во-первых, доля экзопланет, сориентированных «ребром» своей орбитальной плоскости точно к Земле, очень невелика. Кроме того, «затмение» может длиться всего несколько часов, а следующего ждать приходится по нескольку дней, а то и месяцев или даже лет. К тому же, сколько-нибудь существенно падение блеска возможно лишь в том случае, если планета действительно крупная. В этом случае возникает новая проблема: надо доказать, что это именно газовый гигант, а не более тёмная карликовая звезда-компаньон или так называемый коричневый карлик — нечто среднее между газовыми гигантами и звёздами. Сейчас принято считать, что коричневый карлик — это объект с массой более тринадцати масс Юпитера.

    Наконец, случается так, что за планету принимают вообще нечто постороннее. Так, например, несколько лет назад «свежеоткрытая» экзопланета-гигант оказалась не более чем пятном на поверхности звезды.

    В общем, сложностей много, и сам по себе метод наблюдения транзитов стопроцентной надёжности не даёт (как, впрочем, и все остальные).

    С другой стороны, транзитный метод в теории позволяет отыскивать и совсем некрупные планеты — при условии надлежащей чувствительности аппаратуры. Поскольку некрупные планеты оказывают гравитационное воздействие и на свою звезду, и на газовые гиганты (если такие найдутся поблизости), их можно обнаружить именно с помощью метода, называемого Transtit Timing Variations.

    В 2010 году так уже была найдена планета WASP-3c.

    В большинстве случаев «главными» методами поиска и обнаружения экзопланет являются астрометрия и метод лучевых скоростей, он же — метод допплеровской спектроскопии.

    В основе метода лучевой скорости лежит оценка радиальной (лучевой) скорости звезды.

    Если некоторый объект (светило) движется относительно наблюдателя А, то есть в нашем случае Земли, то скорость его движения может быть разложена на две составляющие.

    Одна из них, представляющая проекцию скорости на луч зрения или радиус-вектор, называется лучевой скоростью звезды, а трансверсальная составляющая скорости, перпендикулярная лучу зрения, называется собственным движением.

    Лучевая скорость звезды сама по себе определяется по допплеровскому смещению её спектра (путём сравнения фотографий спектра звезды в разное время).

    Поскольку не только звезда и её планета (или планеты) оказывают гравитационное воздействие друг на друга, планета наводит определённые колебания на свою звезду (собственно, обнаружение таких колебаний и является целью астрометрии), а это сказывается на её лучевой скорости — она становится неравномерной.

    Естественно, изменения в спектре оказываются крайне малы, — но достаточны, чтобы обнаружить у звезды «невидимого компаньона»

    Так была открыта первая в истории экзопланета — Гамма Цефея Ab, как и первый «горячий Юпитер», располагающийся возле солнцеподобной звезды — 51 Пегаса b, (51 Pegasi b) и львиная доля других «крупнокалиберных» планет. Можно ожидать, что по мере увеличения чувствительности астрономического оборудования точность измерений будет расти, как и количество обнаруженных экзопланет, причём не только гигантских.

    Из 504 известных на сегодня экзопланет этим методом были обнаружены 469 штук. И это число явно продолжит увеличиваться со временем.

    Наконец, есть ещё один любопытный метод: микролинзирование. Собственно, речь идёт об обнаружении других планет с помощью "гравитационных линз", формируемых массивными телами (звёздами, чёрными дырами) или системами тел (галактиками и скоплениями галактик). Такие «линзы» позволяют обнаружить компактные массивные тела, в других случаях совершенно невидимые.

    Фактически, это разновидность «прямого наблюдения», только чувствительность земного производство аппаратуры многократно усиливается самой матерью природой.

    Такой метод отличается трудоёмкостью, он требует длительного наблюдения за яркостью сразу огромного числа звезд. Но автоматизация астрономических наблюдений уже позволяет его использовать с некоторой долей эффективности: на сегодняшний день с помощью этого метода открыты десять планетных систем и одиннадцать отдельных планет.

    В теории, этот метод позволяет обнаруживать и «блуждающие планеты», не обращающиеся вокруг какой-либо звезды. Таких объектов во Вселенной может быть великое множество, поскольку, по сути, они представляют собой «недооформившиеся» звёзды и коричневые карлики.

    Будущее за орбитальными телескопами

    В принципе, в подзаголовке всё сказано: орбитальные телескопы обладают рядом важных преимуществ. Во-первых, им не мешают атмосферные возмущения, составляющие значительную проблему для наземных телескопов.

    Во-вторых, если понадобится (а это иногда нужно), систему космических телескопов можно расположить на расстоянии, превышающем диаметр Земли, что позволит, например, значительно повысить точность оценки спектров далёких звёзд.

    С другой стороны, и наземные телескопы списывать со счетов рано: в конце концов, техника совершенствуется, и количество открытых с их помощью экзопланет постоянно растёт. 504 известные ныне планеты — это «подтверждённые кандидаты». Ещё несколько десятков, если не сотен, ожидают подтверждения — и наверняка некоторые его получат.

    Скорее всего, первая «землеподобная» экзопланета будет открыта ещё до середины десятилетия.


    К оглавлению

    id="vision_2">

    QNX в планшете RIM: откуда взялась эта платформа?

    Евгений Крестников

    Опубликовано 02 декабря 2010 года


    Недавно компания RIM, крупнейший производитель смартфонов в США, купила канадскую фирму QSS. Вскоре стало известно, зачем потребовалась эта сделка: RIM анонсировала планшетный компьютер, работающий под управлением операционной системы, основанной на QNX Neutrino.

    Специалистам в области промышленной автоматизации дополнительных пояснений не требуется — им хорошо знакома эта платформа. Скоро с ней впервые познакомится и широкая публика.

    Историческая справка

    Тридцать лет назад, в 1980 году, выпускники канадского университета Ватерлоо Гордон Белл и Дэн Додж вместе разработали основу ядра новой операционной системы реального времени. Тогда же они переехали в город Каната в провинции Онтарио и основали компанию Quantum Software Systems, которая через два года выпускает операционную систему QUNIX (читается как «кюникс», от англ. «quick» — быстрый).

    Торговой маркой UNIX на тот момент владела корпорация AT&T. По её настоянию система была переименована в QNX, а позднее, уже в начале девяностых, и сама компания сменила название на QNX Software Systems (QSS).

    К середине восьмидесятых появилась QNX2, а спустя десять лет за ней последовала QNX4. Разработчики ещё раз полностью переписали ядро, сосредоточив свои усилия на совместимости со стандартом POSIX. В QNX4 появилась встраиваемая графическая подсистема Photon microGUI, а кроме того, благодаря совместимости с POSIX, на неё были перенесены различные программы для Unix (в частности X Window System).

    Среди специалистов бытует мнение, что QNX4 тогда была лучшей встраиваемой системой реального времени. Она широко использовалась (и до сих пор используется) в самых различных отраслях человеческой деятельности: управление промышленными роботами, диспетчеризация транспорта, космическая и оборонная промышленность.


    В конце девяностых компания QSS разработала QNX6 (Neutrino), которая была выпущена в 2001 году. Помимо соответствия новой редакции стандарта POSIX, она отличается максимальной совместимостью с NetBSD и Linux (достаточно сказать, что новая сетевая подсистема QNX была портирована из NetBSD). При этом операционная система сохранила микроядерную архитектуру.

    В настоящее время разработчикам (именно они являются клиентами QSS, ведь это встраиваемая ОС) доступна версия QNX 6.5, которая поставляется вместе с основанной на Eclipse средой разработки QNX Momentics (с ее помощью создают целевые системы для различных устройств).

    В 2004 году QSS была куплена корпорацией Harman (да, сделка с RIM — не первая продажа компании), которая сохранила ее автономию, а Дэн Додж стал также вице-президентом Harman по информационным технологиям. В 2007 году исходные тексты QNX начали открывать под гибридной лицензией (в рамках проекта Foundry27), но при этом сама система осталась коммерческой. После покупки QSS компанией RIM доступ к исходным текстам был ограничен и началась новейшая история этой примечательной ОС.

    Архитектура системы

    Сложно описать архитектуру системы, не вдаваясь в ненужные большинству читателей технические подробности. Мы привыкли к ОС с монолитными ядрами, которые представляют собой большую программу, содержащую множество подсистем: систему управления процессами и памятью, дисковую подсистему и т. д. В QNX всё наоборот.

    Ядро QNX — это небольшая (около 8Кб в QNX4 и от 20 до 32 Кб в QNX6) программа на ассемблере, которая занимается, в основно, планированием процессов и обеспечением взаимодействия между ними. Всё остальное делают сами запущенные процессы, притом здесь нет никакой принципиальной разницы между обычной пользовательской программой и, скажем, дисковой подсистемой. Любой процесс может быть запущен и остановлен в произвольный момент времени, причём если не нужно, например, работать с сетью — нет никакой необходимости запускать сетевую подсистему.

    Подобный подход не только повышает масштабируемость, подобный подход делает QNX высоконадежной операционкой — ситуации, когда система приходит в неработоспособное состояния из-за отказа в одном из процессов здесь крайне маловероятны. Такие ОС называют микроядерными. У микроядерных ОС есть и недостатки — накладные расходы на переключение между процессами при подобном подходе возрастают. Однако в случае с QNX специалисты единодушно считают этот фактор несущественным.

    Другой важный момент — то самое пресловутое «реальное время». Операционные системы реального времени часто путают с «быстрыми» системами. На самом деле, это не одно и то же — выражение «реальный масштаб времени» означает, что программа должна выдать результат в строго отведенный ей временной промежуток. Опоздание здесь так же неуместно, как и спешка.

    "Реальное время" не особенно критично, когда речь идёт о компьютерах пользователей, но производство — совсем другое дело. Cогласитесь, отставание совершенно неприемлемо, когда речь идёт о промышленном роботе, стоящем на конвейере. Он должен закрутить гайку именно в момент Х — ни раньше, ни позже. А уж если говорить об управлении атомными реакторами...

    Любая cистема реального времени должна быть быстрой (иначе она не успеет обработать данные из нескольких источников, да еще без буферизации). Но она должна обеспечить не просто быструю, а гарантированную реакцию. Конечно, специалистам подобное пояснение покажется чересчур дилетантским, но для общего понимания ситуации его вполне достаточно. Можно еще говорить об истинной многозадачности, блокировках, квантовании времени и прочих интересных вещах, но это определенно выходит за рамки популяризаторской статьи.

    Напоследок стоит отметить, что QNX — это встраиваемая ОС. Если QNX4 еще разворачивали с помощью программы установки на некоторых устройствах, то для QNX Neutrino это абсолютно ненормальная ситуация. Сценарий здесь таков: есть установленная под Windows или Linux среда разработки Momentics, в ней делают целевую систему (прошивку), которую и заливают на устройство. Конечно, программа установки здесь есть, с ее помощью можно поставить QNX Neutrino (и Momentics для QNX) на x86-совместимую машину. Но в реальной работе ее не используют — только для тестов и обучения.

    Примеры применения

    Говорить об использовании системы QNX можно бесконечно. Эта система напоминает пресловутого суслика, которого никто не видит... а он, тем временем, есть. QNX контролирует работу атомных реакторов, газовых котлов, автомобильных компьютеров, буровых установок (кстати, система активно применяется и в российской нефте-газовой отрасли) и массы других устройств от простейших контроллеров до сложных бортовых комплексов автономных подводных и космических аппаратов. Здесь и работа с пластиковыми картами VISA в Северной Америке, и управление дорожным движением в канадском городе Оттава-Карлтон.

    Самое впечатляющее применение QNX в телекоме — ОС для систем маршрутизации операторского класса Cisco IOS XR представляет собой целевую систему на базе Neutrino (конечно, в IOS XR больше разработанного компанией Cisco софта, но выбор QNX в качестве основы для подобной платформы говорит о многом). В Санкт-Петербурге QNX применяется в системе автоматизированного контроля и управления разводкой Троицкого моста, в метрополитене и много где еще — всего не упомянешь. Отдельно стоит отметить разрабатываемые компанией «СВД Встраиваемые системы» изделия КПДА, которые представляют собой сертифицированные для российской оборонки версии QNX.

    Графическая подсистема

    Совершенно очевидно, что такая универсальная, надежная, масштабируемая (и прочее) операционная система может работать и на гаджетах. Но здесь есть одна проблема — встраиваемая графическая подсистема Photon для этого совершенно не приспособлена. Однако не все так плохо — еще до продажи компании в QSS задумывались об использовании своих разработок в этой области и начали делать новую графическую подсистему. Ничего удивительного — если не принимать во внимание отсутствие адекватного интерфейса — QNX была бы идеальной системой для современных планшетов и коммуникаторов. Наверняка она будет требовать гораздо меньших ресурсов, чем пришедшие с десктопа Linux, iOS и Windows (обеспечивая при этом более надежную работу устройства). Разработчики реализовать свои наполеоновские планы не смогли. Не исключено, что у RIM это получится. Кстати, тот факт, что в новой графической подсистеме QNX активно использовались технологии Adobe Flash и JavaScript наводит на определенные мысли — скорее всего интерфейс анонсированного планшета использует старые разработки QSS (представители RIM также много говорят про использование Flash и JavaScript в интерфейсе своего планшета).


    К оглавлению

    id="vision_3">

    Кивино гнездо: За кулисами кибервойны

    Берд Киви

    Опубликовано 03 декабря 2010 года

    Сеймур Херш, ветеран американской публицистики и признанный ас журналистских расследований, своими статьями не раз сумел заметно повлиять на политическую обстановку в США. Специализируясь на темных секретах военных и разведки, Херш обрел в этих скрытных кругах настолько информированные источники, что вот уже 40 лет его расследованиям удается не только «открыть публике глаза», но и порой вызывать реальные перемены в обществе.

    Материалы Херша периода вьетнамской войны рассказывали о тщательно замалчиваемых Пентагоном случаях массовых зверских убийств среди мирного населения и в немалой степени способствовали росту антивоенных настроений среди американцев. В середине 1970-х статьи журналиста о тайных операциях ЦРУ вызвали в США столь мощный резонанс, что Конгрессом была создана специальная комиссия Черча для расследования бесконтрольной деятельности в шпионских спецслужбах страны.

    Несмотря на преклонный возраст, сейчас ему уже за 70, Сеймур Херш и поныне активно занимается раскопками и анализом военно-разведывательных секретов. А всегда честные и последовательные в своей позиции публикации журналиста создали ему настолько безупречную репутацию, что информацией с ним доверительно делятся носители секретов любых рангов — от самых высокопоставленных начальников (как правило, уже отставных) до рядовых сотрудников военных, разведывательных, дипломатических и других государственных ведомств.

    Поэтому вряд ли удивительно, что именно благодаря Хершу и его статьям в журнале New Yorker американская и мировая общественность впервые узнала о таких подробностях «войны с терроризмом», как пытки заключенных и прочие злодеяния в тюрьмах Абу-Граиб, Баграм и Гуантанамо. Об американских «эскадронах смерти», созданных для внесудебных расправ над неугодными людьми в Ираке и Афганистане. О тайной подготовке поводов для еще одной, к счастью так и не начатой, войны с Ираном и о конструировании новых «смертельно опасных» угроз для США.

    В свежем номере New Yorker за ноябрь 2010 Сеймур Херш опубликовал большую статью «Онлайновая угроза. Следует ли нам опасаться кибервойны?» ("The Online Threat: Should we be worried about a cyber war?" by Seymour M. Hersh). Ключевые идеи этого исследования для постоянных читателей «Компьютерры» вряд ли станут откровением (см., например, материал "Кибервойна как мать родна"). Однако Херш напрямую общается с американскими политиками и экспертами весьма высокого уровня. Поэтому непосредственно из их уст особо поучительно услышать признания о том, что мрачнейшие предсказания близкой киберкатастрофы и шумный гвалт, поднятый вокруг угроз кибервойны — все это, в сущности, лишь энергичные попытки заполучить как можно больше бюджетных миллиардов на финансирование и без того раздутых военных и разведывательных программ. Ибо давным-давно известно, что нет лучшего способа для выбивания денег, чем стращание законодателей и обывателей угрозами неминуемой войны.

    Но поскольку в кибервойне по определению довольно сложно ожидать большие потери в человеческих жизнях (что пугает публику больше всего), то был изобретен хитроумный «трюк с подменой». Обычный кибершпионаж, который всегда в сетях был, есть и будет, в какой-то момент стали называть иначе — «кибервойной». А всевозможные шпионские операции, нарастающие в компьютерных сетях, соответственно, теперь стали именоваться кибератаками. То есть «нападениями» врагов, потенциально грозящими столь катастрофические потерями в критических инфраструктурах государства и бизнеса, что по масштабам они становятся сравнимыми с потерями от ударов традиционным оружием массового поражения. А это, ясное дело, требует незамедлительных мер противодействия и очень, очень серьезных капиталовложений в национальные военно-разведывательные проекты...

    Помимо внятного изложения всей этой кухни кибервоенных страшилок, данная статья, как и все расследования Херша, особо интересна, конечно же, конкретными фактами из секретной деятельности военных и спецслужб. Самым яркой историей непосредственно в данной публикации стал сравнительно недавний инцидент с аварией самолета радиоэлектронной разведки США у берегов Китая. Об этой истории, но существенно в ином контексте быстрого и тотального стирания данных на магнитных носителях, «КТ» также в свое время рассказывала (см. "Наука полного уничтожения"). Однако теперь есть возможность разобраться с данным событием намного более подробно, коль скоро оно сыграло немаловажную роль в раскручивании Пентагоном маховика кибервоенных приготовлений.

    Итак, согласно перекрестным свидетельствам, полученным Сеймуром Хершем из самых надежных источников, картина происходившего выглядела так.

    Первого апреля 2001 года американский разведывательный самолет EP-3E Aries II, выполнявший задачу по радиоперехвату в регионе Южно-китайского моря, касательно столкнулся в воздухе с реактивным истребителем-перехватчиком Китая. Это событие стало причиной первого международного кризиса для только что вступившей во власть госадминистрации президента Джорджа Буша. Китайский истребитель в результате разбился, а управлявший им летчик погиб, однако пилоту американского турбовинтового самолета, лейтенанту ВМС Шейну Осборну, удалось совершить аварийную посадку машины на аэродром китайской авиабазы на острове Хайнань в пятидесяти милях от материка. Впоследствии Осборн опубликовал мемуары, в которых красочно описал «непрестанные удары вибрации», сотрясавшие набитый техникой и людьми самолет в то время, как он за тридцать секунд падения потерял два с половиной километра высоты, прежде чем пилоту удалось восстановить управление машиной.

    На борту самолета находились двадцать четыре человека, мужчины и женщины, приписанные к Группе безопасности военно-морского флота, а структурно являвшиеся полевым подразделением Агентства национальной безопасности США. Спустя одиннадцать дней все эти люди были возвращены обратно в Америку, однако самолет Китай оставил себе.

    В первоначальных комментариях к инциденту Пентагон сообщил прессе, что экипаж при аварийной посадке в своих действиях следовал установленному протоколу, который предписывал использовать все подручные средства, от противопожарных топоров и вплоть до горячего кофе, чтобы в срочном порядке вывести из строя разведывательную аппаратуру и программное спецобеспечение самолета. В состав этого оборудования, в частности, входила операционная система, созданная и управляемая силами АНБ, а также комплекс драйверов, необходимых для отслеживания зашифрованных сигналов от китайских радаров, речевых и электронных коммуникаций. Прошло еще более двух лет, прежде чем в ВМС решились признаться, что далеко не все вещи сложились тогда столь хорошо, как их представляли. Цитируя соответствующий документ дословно, в отчете ВМС за сентябрь 2003 года было констатировано следующее: «Компрометация Китайской Народной Республикой неуничтоженных секретных материалов … в высшей степени вероятна и не может быть исключена».

    Подлинный же масштаб потерь оказался даже более огромным, чем предполагалось в отчете 2003 года, а его реальные размеры по сию пору так и не раскрыты полностью. Отставной адмирал Эрик Маквэдон (Eric McVadon), в свое время летавший с патрулями вдоль берегов России и служивший военным атташе в Пекине, рассказал журналисту, что радиосообщения с потерпевшего аварию самолета свидетельствовали — экипаж действительно занимался зачисткой принципиально важного электронного оборудования. Команде EP-3E удалось стереть файлы на жестких дисках — «обнулить их», по словам адмирала — однако физически аппаратуру они не уничтожили, что оставило данные потенциально восстановимыми. По выражению адмирала, "за кувалду никто не брался ". «Некоторые могут подумать, что все обернулось не так уж плохо, однако мне доводилось сидеть на некоторых совещаниях по поводу разведывательных потерь от произошедшего. И это было ужасно», — признался Маквэдон.

    Многие специалисты американских ВМС не верили, что Китай окажется способен на обратную инженерную разработку электронной начинки в самолете АНБ. Машины, по свидетельству одного из бывших руководителей разведки, оснащенной специализированной операционной системой, приблизительный размер которой составлял что-то между 30 и 50 миллионами строк кода. Освоение этой ОС, в принципе, предоставляло Китаю своего рода «дорожную карту» к дешифрованию секретной разведывательной информации ВМС США и к оперативным данным американского флота.

    Следующий общий комментарий к данному нюансу дает видный криптографический авторитет Уитфилд Диффи: «Если эта операционная система управляла тем, что вы ожидаете от разведывательного самолета, то она имела целую кучу драйверов для правильной регистрации сигналов радаров и телеметрии. Самолет был сконфигурирован для перехвата того, что он должен был отслеживать, а китайцам, конечно же, хотелось бы знать, что именно мы хотели знать о них. Что именно мы умели перехватывать, а они, возможно, не могли»...

    Спустя еще несколько лет разведывательное сообщество США начало «замечать сигналы» о том, что Китай получил доступ к чувствительному американскому трафику. Реальный же масштаб своих потерь в США начали осознавать только в конце 2008 года.

    Через несколько недель после того, как на президентских выборах победил Барак Обама, китайцы начали забивать целую группу коммуникационных каналов, находившихся под плотным контролем АНБ, потоками своих материалов перехвата. Об этом журналисту независимо рассказали два сотрудника из аппарата национальной безопасности в администрации Буша и один бывший руководитель разведки. Эти материалы перехвата включали в себя подробности о запланированных перемещениях американских ВМС. Создавалось впечатление, что китайцам словно очень хотелось продемонстрировать Америке, чем они располагают.

    Но почему китайцы раскрывали спецслужбам США, что они имеют доступ к чувствительным американским коммуникациям? Наверняка этого по сию пору не знает никто. В кругах бушевского вице-президента Дика Чейни, к примеру, восприняли это так, будто данный поток означал своеобразное приветствие от КНР новому президенту Обаме. Однако нельзя исключать и совершенную иную возможность — что китайцы просто допустили здесь ошибку, принимая во внимание все трудности тонкой хирургической работы шпионов в современном кибермире.

    Один из бывших сотрудников ЦРУ рассказал журналисту, что адмирал Тимоти Китинг (Timothy J. Keating), в тот период возглавлявший командование Тихоокеанского флота, организовал по этому поводу целую серию весьма эмоциональных совещаний на Гавайях. И уже в начале 2009 года Китинг вынес проблему на рассмотрение новой администрации Обамы. Если Китай действительно осуществил обратную инженерную разработку операционной системы самолета EP-3E, то все системы такого рода в составе ВМС США следовало без промедления заменить — с затратами порядка сотен миллионов долларов. После множества тяжелых дискуссий, как сообщают несколько источников, так и было сделано.

    По свидетельству адмирала Маквэдона, данная история породила на флоте целую волну своеобразного черного юмора. Например, широко гуляла такая шутка одного из офицеров: «Вот вам один из чертовых путей к тому, чтобы получить, наконец, новую операционную систему».

    Другой же, куда более мощной волной от горячих дебатов вокруг EP-3E стала тема потенциальных угроз со стороны стабильно растущей кибермощи Китая (а также, заодно, и других государств, продвинутых в компьютерных технологиях). Многочисленные и безусловно впечатляющие достижения китайцев на поприще кибершпионажа как бы сами собой стали трактоваться в качестве непосредственной кибервоенной угрозы для Америки. И ныне выглядит уже почти естественным, что на этом фоне никто даже и не вспоминает, какого рода предшествовавшие события привели США к серьезнейшим разведывательным потерям из-за инцидента с самолетом EP-3E.

    Сеймур Херш сумел раздобыть эту предысторию у одного отставного американского дипломата, который по роду своей работы в тот период был полностью в курсе специфики военно-политических событий, происходивших в США и тихоокеанском регионе. По мнению этого дипломата, первопричиной всему стала полнейшая неопределенность с победителем президентских выборов в ноябре 2000 года, где состязались Джордж Буш и вице-президент демократов Эл Гор. По неудачному совпадению, той же осенью, но чуть раньше в стандартном военном отчете Пентагона о ситуации с обороной было сделано заключению, что определенного рода разведывательные полеты, ежедневно совершаемые вдоль восточных берегов бывшего СССР силами ВВС и ВМС США с авиабаз на Алеутских островах, были сочтены в новых условиях излишними. На основе чего следовала рекомендация о целесообразности их прекращения.

    В соответствии с рекомендациями отчета, эти полеты были прекращены — как раз накануне выборов 2000 года. Однако после выборов вдруг получилось так, что в государственном аппарате не оказалось никого с уровнем власти, который позволял бы отдать команду, что делать с освободившимися ресурсами. Реальность же военной жизни такова, поясняет дипломат, что ни один военный командир никогда в одностороннем порядке не станет прекращать выполнение поставленной перед ним задачи.

    Иначе говоря, люди начали искать себе дело. А сложившаяся в вооруженных силах система по умолчанию переключила их на цель, по уровню угроз стоявшую следующей после СССР. Такой целью был Китай. Так что разведывательные полеты вдоль китайских берегов, которые прежде проводились примерно раз в две недели, теперь стали проходить почти каждый день. Уже к началу декабря китайцев это начало изрядно раздражать, поэтому они стали действовать более агрессивно — сначала по дипломатическим каналам — против существенно участившихся разведывательных полетов американцев.

    Дипломаты США сообщили военным о недовольстве и жалобах китайцев. Однако в Вашинтгтоне на тот момент по сути дела не было вообще никакой политической власти, которая могла бы внятно отреагировать на нарождающийся конфликт или объяснить Китаю суть происходящего. Никто не сказал китайцам, что возрастание частоты американских разведполетов очень мало к чему имеет отношение, кроме того факта, что ежедневной политикой страны руководит только инерция. В министерстве обороны, аналогично, в это время по сути отсутствовало высшее руководство, поскольку как демократы, так и республиканцы ожидали решения верховного суда о судьбе очередного президентства.

    Вполне предсказуемом результатом такой ситуации стало нарастание провокационного поведения со стороны пилотов китайских истребителей, которым поручалось отслеживать и сопровождать разведывательные полеты американцев. Одним из сценариев такого агрессивного сопровождения стало то, что китайский перехватчик сначала совершал плавный маневр в нескольких десятках метров перед медлительным EP-3E, а затем резко включал форсаж, круто уходя вверх и оставляя позади ударную волну, которая сильнейшим образом встряхивала американский самолет. Кончились эти игры плохо. Первого апреля 2001 китайский пилот неверно рассчитал дистанцию между своей машиной и американской, допустив физический контакт самолетов. Причем ошибка эта оказалась настолько серьезной, заключает Сеймур Херш, что последствия ее для идущих в США дебатов о кибербезопасности полностью все еще так и не осмыслены...


    К оглавлению

    >

    Интервью

    id="interactive_0">

    Дмитрий Вибе (ИА РАН) об астрофизических измерениях

    Алла Аршинова

    Опубликовано 29 ноября 2010 года

    Научное знание копится веками. В стремлении постичь мир ученые строят гипотезы и теории, проектируют и воплощают в жизнь сложнейшие научные установки. В естественных науках все можно проверить экспериментом. Практически весь мир (условно, конечно) можно поместить в научной лаборатории. Именно здесь решаются проблемы медицины, физики, химии, биологии, генетики и других наук. Но есть нечто, что никогда не поместится ни в одну лабораторию мира. Это — наша Вселенная. «Эксперименты» с ней может проводить только сама природа, а человеку остается лишь наблюдать за этим процессом.

    Астрономия, наука о строении, развитии и структуре небесных тел и Вселенной, стоит особняком среди естественных наук, так как ей недоступны прямые эксперименты, и строить свои теории она может, лишь отталкиваясь от наблюдательной базы. Тем не менее мы знаем, что такое звёзды, как движется межзвёздное вещество, почему и как Вселенная расширяется и другие, немыслимые для обывательского понимания вещи.

    На чем основано это знание? Насколько оно надёжно и обоснованно? На что опирается астрономический научный аппарат? О методах астрофизических измерений мы разговаривали с доктором физико-математических наук, ведущим научным сотрудником Института астрономии РАН Дмитрием Вибе.


    - Дмитрий Зигфридович, насколько обоснованно сегодня разделение астрофизики на наблюдательную и теоретическую?

    - Это разделение присуще всем естественным наукам, и астрономия (астрофизика) — не исключение. Общий принцип работы незыблем: наблюдатель при помощи телескопов собирает информацию, теоретик при помощи моделей пытается понять, что она означает. При этом современный телескоп — это устройство, очень сложное в технологическом плане, и без должной квалификации невозможно ни составить план наблюдений, ни провести их, ни обработать потом результаты.

    Астрофизические модели также очень сложны, поскольку моделировать приходится очень сложные реальные объекты. Поэтому даже в простой модели зачастую сочетаются в той или иной степени чуть ли не все отрасли современной физики. Поэтому быть одновременно и хорошим наблюдателем, и хорошим теоретиком одному человеку невозможно. С другой стороны, конечно, наблюдатель должен иметь представление о теоретических моделях (чтобы наблюдать то, что нужно для их подтверждения или опровержения, а не то, что удобно наблюдать), а теоретик должен иметь представление о возможностях современных телескопов (чтобы результатом моделирования была не красивая анимация, а реально проверяемое предсказание).

    - Астрономия вообще и, в частности, астрофизика, развивается стремительнее многих других наук. С чем это связано? Что является двигателем прогресса в этой науке?

    - Двигателем прогресса в астрофизике, как ни скучно это прозвучит, является развитие технологий. За последние несколько десятилетий (начиная, скажем, с середины прошлого века) астрофизическая картина мира претерпела кардинальные изменения. При этом собственно физическая основа астрофизических моделей за это время проэволюционировала не столь значительно. До сих пор в профессиональной литературе в ходу имена Кеплера, Ньютона, Эйлера, Максвелла... Но вот техника наблюдений и моделирования изменилась неимоверно. Соответственно, грандиозно вырос объём информации о Вселенной, которую мы в состоянии получить и обработать. Главное достижение состоит, пожалуй, в том, что у нас появилась возможность проводить наблюдения во всём диапазоне электромагнитных волн — от гамма-излучения до радиоволн. Да и компьютерная техника заметно «подросла». Первые численные модели астрофизических процессов в 1960-е годы выполнялись на компьютерах, которые в современном мире по мощности могли бы конкурировать разве что с мобильниками.

    Если же говорить более конкретно, то большой вклад в развитие астрофизики внесла гонка вооружений. Многие численные гидродинамические модели, физические базы данных попадали в астрофизику из Лос-Аламоса и других подобных учреждений. Не для астрофизических нужд разрабатывались изначально такие прорывные технологии, как адаптивная оптика и детекторы жёсткого излучения. Некоторые важные астрофизические явления и объекты (гамма-всплески, инфракрасные тёмные облака) были обнаружены при помощи военных спутников.

    - Каждая наука имеет свою методологию. Какие есть особенности у методологии астрофизики?

    - Можно, пожалуй, выделить две ключевые особенности: невозможность проведения запланированного эксперимента и возможность наблюдения исследуемых объектов только с одной стороны. Физик (как правило) имеет возможность так построить эксперимент, чтобы в нём наиболее выпукло проявлялся какой-то специфический процесс. В астрофизике эксперимент ставит Природа, которая нимало о нуждах исследователя не заботится. Допустим, физик хочет в деталях исследовать колебания маятника. Он сделает его из немагнитного материала, поместит на жёстком подвесе в суперизолированное помещение, откачает воздух, поставит десять камер, чтобы следить за маятником с разных ракурсов. В астрофизике тот же маятник будет сделан из материала с неизвестными магнитными свойствами, помещён в магнитное поле, подвешен на резинке, с одной стороны на него будет налетать поток газа, с другой — космические лучи, и наблюдать всё это можно будет только с одной стороны, как правило сбоку в плоскости колебаний.

    Ещё один важный фактор — разнообразные эффекты наблюдательной селекции, суть которых сводится к тому, что внимание наблюдателя привлекают, в первую очередь, наиболее яркие и, как следствие, наименее типичные объекты.

    Из-за этих ограничений в астрофизике к теоретической интерпретации наблюдений приходится подходить особенно жёстко. В частности, обязательно необходимо проверять, насколько предлагаемое объяснение согласуется с данными из других отраслей астрофизики. Это в общем тоже ложится на учёного дополнительным бременем: он не может позволить себе разбираться только в своей узкой области.

    - В астрономии много разделов, какой из них самый сложный в смысле получения информации?

    - Да в общем-то ни один из этих разделов особой лёгкостью не отличается. Но самые значительные сложности, наверное, у космологов. Им приходится иметь дело с очень большим объектом, и для выявления каких-то закономерностей необходимо с высоким качеством наблюдать если не всё небо, то по крайней мере значительные его участки, причём с

    использованием космических обсерваторий. Эта задача всё ещё остаётся очень ресурсоёмкой.

    - Каким инструментарием обладает астрофизика? Каким образом, наблюдая свет от удаленных звёзд, астрофизики определяют их параметры?

    - Практически единственный источник информации о космических объектах — это электромагнитное излучение. Конечно, есть ещё космические лучи и нейтрино, но по информативности они со светом конкурировать не смогут ещё очень долго. Поэтому в основе астрофизического инструментария лежит, с одной стороны, необходимость зарегистрировать электромагнитное излучение, с другой стороны, необходимость понять, как оно было сгенерировано.

    К счастью, электромагнитное излучение буквально напичкано информацией. Эта информация зашифрована в виде спектра — распределения энергии излучения по частотам. Общая форма спектра зависит от температуры объекта: чем объект горячее, тем дальше максимум его излучения сдвинут в область больших частот (очень горячие объекты светят в рентгеновском и гамма-диапазонах, очень холодные — в инфракрасном и миллиметровом диапазонах), сдвиг спектральных линий относительно «лабораторного» положения говорит о скорости движения вещества по лучу зрения, ширина спектральных линий — о температуре и плотности вещества. По интенсивности различных линий одного и того же элемента можно определить его содержание и состояние ионизации.

    - Предположим, природу звёзд еще можно постичь. А как быть с более абстрактными явлениями, такими, как кривизна пространства?

    - На самом деле, природа звёзд не более и не менее абстрактна, чем природа гравитации. Астрофизика, физика, вообще наука — это очень практическая часть человеческой деятельности, в которой не так много места для абстракций. Во всех случаях мы имеем дело с одной и той же логической схемой: есть наблюдения и есть модель, которая их объясняет. Свойства звёзд удаётся объяснить, исходя из предположения, что в их недрах происходят термоядерные реакции. Поведение луча света вблизи Солнца или, например, смещение перигелия Меркурия удаётся объяснить, исходя из предположения об искривлении пространства. Оба предположения являются равноправными составными частями общей физической картины Мира.

    - Как обнаруживают экзопланеты, ведь они невидимы напрямую?

    - Почему же не видны? В некоторых случаях внесолнечные планеты уже удаётся наблюдать непосредственно. В других случаях (их, правда, пока большинство) на помощь приходят косвенные методы, из которых наиболее продуктивны метод лучевых скоростей и метод затмений. В первом методе используется тот факт, что на самом деле не планета вращается вокруг звезды, а звезда и планета вращаются вокруг общего центра масс. Это небольшое движение звезды приводит к тому, что она движется то к наблюдателю, то от него. В результате из-за эффекта Допплера её спектральные линии смещаются то в синюю, то в красную область спектра. Эти колебания и выдают присутствие невидимого спутника. Если масса спутника не превышает 13 масс Юпитера, его считают планетой. Правда, метод лучевых скоростей позволяет определить не саму массу, а только её нижнюю границу, точнее, он позволяет определить произведение массы планеты на синус угла между плоскостью её орбиты и небосводом.

    Метод затмений работает тогда, когда плоскость орбиты планеты почти параллельна лучу зрения. В этом случае планета на каждом обороте проходит перед звездой, частично затмевая её свет. Метод затмений более сложен, но и информации даёт больше. В частности, для затмевающих планет удаётся измерять массы, спектры и радиусы. То есть он, в отличие от метода лучевых скоростей, позволяет не просто зафиксировать сам факт наличия планеты, но и определить её физические параметры и даже свойства атмосферы.

    - А как можно исследовать свойства атмосферы, если нельзя увидеть даже саму планету?

    - Здесь также работает спектральный анализ. Если речь идёт о затмевающей планете, то во время затмения, то есть в тот момент, когда планета проходит по диску звезды, газовая оболочка планеты поглощает часть звёздного света, и это добавочное поглощение можно зафиксировать в наблюдениях. В тех же (пока редких) случаях, когда удаётся увидеть саму планету, возможно получить и её спектр — непосредственно, а не в виде едва заметного изменения в спектре звезды.

    - Чёрные дыры представляют собой особый класс объектов, так как сами ничего не излучают. Каким образом они были обнаружены, и как были измерены их массы?

    - Измерение масс чёрных дыр — как раз тот случай, когда прекрасно работают законы четырёхсотлетней давности, законы Кеплера. Наблюдая движение вещества по кеплеровским орбитам, можно определить массу того тела, вокруг которого обращается вещество. В ряде случаев оказывается, что вещество вращается вокруг «пустого» места, то есть источник тяготения в фокусе орбиты есть, обладает весьма заметной массой и при этом невидим. Очень наглядный пример — объект в центре нашей Галактики. Вокруг него вращается несколько звёзд, орбиты которых измерены с очень высокой точностью. Из параметров этих орбит видно, что звёзды движутся в поле тяготения объекта массой в несколько миллионов солнечных масс. При этом объект невидим (видно лишь слабое рентгеновское излучение падающего на него газа) и обладает очень небольшими размерами. Всё это — характерные признаки чёрной дыры.

    - А можно ли объяснить эти признаки, не привлекая теорию чёрных дыр? Есть ли другие гипотезы?

    - Да, время от времени публикуются статьи, посвящённые попыткам объяснить поведение звёзд в центре Галактики другими объектами — нейтринными шарами, бозонными звёздами и прочее. Однако эти объекты более экзотичны, чем чёрные дыры, а в науке принято правило, согласно которому предпочтение отдаётся более простому объяснению.

    - Большая часть массы Вселенной состоит из тёмной энергии и тёмной материи, природа которых неизвестна. Как астрофизика изучает их?

    - Тёмная материя локальна, её признаки наблюдаются не только в масштабах Вселенной, но и в отдельных скоплениях галактик, и в самих галактиках. Поскольку тёмная материя является источником гравитационного притяжения, её распределение можно исследовать по наблюдениям явлений, связанных с гравитацией, например по наблюдениям гравитационного линзирования. Здесь в общем ситуация примерно та же, что и с чёрными дырами, — действие поля тяготения фиксируется совершенно уверенно, а его видимый источник отсутствует. Только речь идёт не об очень компактном массивном теле, а напротив, о распределении невидимого вещества в масштабах скопления галактик.

    Тёмная энергия — вещь глобальная, и её признаки проявляются в космологических наблюдениях, то есть, по сути, в наблюдениях Вселенной как целого. Но методика и здесь остаётся той же: теоретики рассчитывают, как должна выглядеть Вселенная (крупномасштабное распределение вещества, свойства микроволнового фона) при том или ином соотношении обычного вещества, тёмного вещества и тёмной энергии, а наблюдатели проверяют, насколько эти предсказания оправдываются на практике, например в наблюдениях анизотропии микроволнового фонового излучения.

    - Расскажите, пожалуйста, о связи астрофизики и физики элементарных частиц! Ждут ли астрофизики каких-то определенных результатов от LHC?

    - На самом деле, астрофизика — это не какая-то отдельная отрасль физики, подобная физике элементарных частиц или, скажем, физике твёрдого тела. Это скорее система применения знаний из различных областей физики к космическим объектам. Поэтому астрофизика связана и с физикой элементарных частиц, и с кинематикой, и с гидродинамикой.

    При этом есть, конечно, разделы астрофизики, которые к физике элементарных частиц особенно близки. Это, например, физика космических лучей и космология, исследования вспышек сверхновых и процессы в нейтронных звёздах. Результаты LHC имеют скорее общефизическое значение, чем конкретно астрофизическое. Поэтому рискну сказать, что астрофизикам в массе не так важно, какие конкретно результаты будут получены на LHC. Хотя, конечно, очень интересно будет узнать, какие результаты там будут получены.

    -А как же, например, эксперименты на LHC, предназначенные для проверки теоретических моделей столкновения космических лучей высокой энергии с молекулами атмосферы? Или вообще проверка Общей теории относительности? Разве новые данные LHC не ограничат (или расширят) модели, используемые в астрофизике?

    - Астрофизика объединяет в себе сотни, может быть, даже тысячи моделей. В очень многих моделях ни релятивистских эффектов, ни энергий, для которых был построен LHC, нет. Соответственно ни результаты LHC, ни результаты проверок ОТО на этих моделях никак не скажутся. На самом деле если бы, скажем, эффекты ОТО играли столь большую роль в рядовых физических и астрофизических процессах, для проверки ОТО не приходилось бы проводить сложных и дорогостоящих экспериментов. Сложность её проверки обусловлена именно тем, что она зримо проявляется лишь в довольно исключительных обстоятельствах, которые во Вселенной редки.

    - Может ли современная астрономическая картина мира оказаться неверной?

    - Это сложный вопрос, и ответ на него будет зависеть от того, что конкретно понимается под астрономической картиной мира и какой смысл вкладывается в слово «неверна». Строго говоря, наши «руки» (в виде космических аппаратов) протянулись лишь чуть дальше, чем на 100 астрономических единиц от Солнца. Всё, что мы «знаем» вне этих пределов, является результатом интерпретации наблюдений электромагнитного излучения и космических лучей, то есть результатом того самого центрального процесса — построения моделей и их сопоставления с наблюдениями. При этом, даже если удаётся построить модель, которая хорошо описывает имеющиеся наблюдения и позволяет предсказать результаты новых наблюдений, остаётся вопрос единственности. Не существуют ли другие модели, которые будут не менее успешны?

    Тем не менее мне кажется, что в своих основах астрономическая картина мира уже навсегда останется неизменной. Слишком многочисленны и разветвлены наблюдательные факты, на которых она строилась и строится. Невозможно, например, предположить, что энерговыделение в звёздах вызывается не термоядерными реакциями, не потянув массу последствий для других аспектов астрономической картины мира, начиная со структуры галактик и заканчивая химическим составом метеоритов. Об этом, кстати, часто забывают авторы самодеятельных научных «теорий»: в астрофизике факты чаще всего нельзя объяснять поштучно.


    К оглавлению

    id="interactive_1">

    Сергей Анурьев («ЛитРес») об электронном книгоиздании

    Юрий Ильин

    Опубликовано 30 ноября 2010 года

    "ЛитРес" — компания, занимающаяся легальными продажами электронных книг, образованная создателями электронных библиотек FictionBook.lib, Альдебаран, Litportal, Bookz.ru и Фэнзин в 2006 году. Что поменялось с той поры? И как наступающий бум электронных книг скажется на судьбе книгоиздания в России? Об этом «Компьютерра» беседует с генеральным директором «ЛитРеса» Сергеем Анурьевым.


    — Расскажите, пожалуйста, какие изменения в компании «ЛитРес» и отрасли в целом произошли с 2007 года и до сегодняшнего дня?

    - В 2007 году рынка в полноценном понимании этого слова не было. Был не очень результативный, но несомненно полезный опыт «КМ Онлайн», который предлагал лицензионный ассортимент до тысячи наименований.. У проекта были явные проблемы с генерированием продаж, коммуникацией с правообладателями и работой с пиратами. Наступала новая пора, связанная с изменением Гражданского Кодекса, был очевиден большой спрос на электронные книги, но не было хорошего предложения.

    Прошло всего лишь три года, а изменилось практически все. Если в 2007 году портфель электронных книг наших ключевых поставщиков АСТ и «Эксмо» насчитывал до ста позиций, то сегодня их суммарное количество увеличилось на порядки и составляет более десяти тысяч позиций.

    Сам проект «ЛитРес» на старте был обсуждаем и неоднозначен в понимании как авторов, так и потребителей. Предлагалось платить за книги, а тут вокруг пираты и все можно скачать бесплатно.

    Сегодня пользователь понимает, что есть платные и пиратские модели, и он сам выбирает, какие книги будет читать: лицензионные или пиратские. В целом, сегодня приобретение электронных книг за деньги не вызывает вопросов ни у покупателей, ни у авторов. Это стало привычным подходом к распространению книги в современном мире.

    Нужно понимать, что на момент 2007 г. за рубежом из аналогичных проектов был только www.ebooks.com. Но о нем было известно только в среде продвинутых специалистов. Книги на ebook.com были представлены на английском языке, и это было отнюдь не массовое явление. В отечественном сознании, которое ориентировано на восприятие всего через какие-то зарубежные аналоги, продажа электронных книг на тот момент была странной затеей.

    Однако с тех пор произошло множество изменений. Осенью 2007 года вышел первый Amazon Kindle; затем вышел Kindle 2 и в 2010 — Kindle 3. Также в 2010 году на рынок электронной книги вышел Apple с приложением iBook для пользователей iPhone, iPad, iPod и пр. С точки зрения потребителя тоже произошло много изменений: если б в 2007 году какой-нибудь пассажир метро достал читалку, это был бы нонсенс. Сейчас, по нашим оценкам, до трети пользуются для чтения в метро либо телефоном, либо ридером, либо другим устройством для чтения. Пользователи шагнули в сторону прогресса. То есть в 2007 году рынка не было вообще, а теперь он есть и активно развивается. Изменения эти произошли за какие-то два-три года.

    - Вопрос только в том, какой процент лицензионной продукции у них на этих читалках?

    - Выбор в пользу лицензионного контента зависит напрямую от пользователя.

    — То есть вы считаете, что это зависит от людей, а не от того, что есть, а чего нет? Вот сейчас вы упоминаете АСТ и «Эксмо» – это крупные книгоиздатели, которые издают сугубо коммерческую литературу, «жестко коммерческую», если угодно. А какие-то не столь коммерческие поставщики у вас есть?

    - Я не культуролог и не искусствовед, сложно сказать, какая литература коммерческая, а какая нет. Мы ориентируемся на результаты литературных премий, статистику продаж книжных сетей. Мы изучаем эти рейтинги и понимаем, что аудитория читает и что ей необходимо предложить.

    В целом, аудитория книги очень разная.

    Кто-то читает Дарью Донцову, кто-то предпочитает Виктора Пелевина, другие выбирают Дину Рубину.... Рубина — это что? Улицкая — это что? Качественная, но в тоже время, достаточно коммерческая литература. Тут сложно сказать, что из такого «некоммерческого» издательствами выпускается или еще не выпускается. Я просто даже не могу представить... Какую книгу вы хотели бы почитать, но не можете найти? Или какой жанр вы хотели бы почитать, но не можете найти?

    — Скажем, Владимира Набокова — в лицензионном виде...

    - К сожалению, у нас существует проблема с книгами Владимира Набоковым, как и с любым другим зарубежным автором: необходимо приобретать права на их издание на русском языке в электронном виде. То есть, например, Рэй Брэдбери — он у нас на расстоянии вытянутой руки, рядышком совсем, все готово, чтобы продавать его книги. Но нужно подписывать с ним контракт через зарубежного агента, а пока это сделать дорого и долго. Но мы работаем в этом направлении.

    — А классика? От Державина до Белинского, если по школьной программе?

    - Есть, продаем классику. Не все, правда, положительно относятся к этому.

    - А почему, кстати?

    - Считается, что классика является общественным достоянием и должна распространяться бесплатно. Хотя при этом те, кто это утверждает, забывают, что необходимо еще обеспечить качество текста и удобство его чтения на любом устройстве. Именно это мы и предлагаем пользователям нашего сервиса, когда они покупают у нас классику.

    — Теперь другой вопрос. Как выглядит процесс традиционного книгоиздания? Есть исходный текст, редактура, корректура, подготовка иллюстраций, если это вообще предполагается, верстка, типография, расходы на бумагу и т.д. Электронное книгоиздание, в сущности, эту модель меняет, чтобы не сказать истребляет, не так ли?

    - Все зависит от того, о какой книге идет речь. Например, появился автор, принес свое произведение, а его нужно редактировать. Редактирование и корректура все равно необходимы, какую бы книгу вы ни покупали. Если книга с иллюстрациями, картинки нужно верстать. Если нет, то ее все равно нужно переводить в какой-то цифровой формат. Верстка видоизменяется. Печать книги, как один из процессов, разве что исчез.

    — Что у нас остается? Верстка, корректура, если речь идет о западных каких-либо произведениях — переводы все равно нужны. Достаточна ли выручка от цифровых продаж, чтобы оплачивать весь оставшийся процесс в том же объеме, в каком это делалось до появления электронных книг?

    - Бумажная книга вместе с электронной идут вместе, одним процессом. Они — единое целое. Пока книга не напечатана, электронная и бумажная книга выглядят одинаково, – файл в программе верстки, например в InDesign. Только потом уже из файла верстки делается PDF для печати. Пожалуй, только печать является единственным процессом, который работает исключительно на бумажную книгу.

    — А если печать совсем уходит? Сейчас существует распространенное мнение, что через некоторое время бумажная книга отомрет в принципе, потому что, дескать, все эти букридеры удобнее, и если и не надежнее, то, во всяком случае, в них больше помещается. В один Kindle можно чуть ли ни всю домашнюю библиотеку «упихать». А вот если бумажная книга уходит, то вот этот процесс финансового возвращения, он как осуществляется?

    - Бумажная книга уйти «в никуда» не может. По идеи на ее место, как минимум, должна прийти электронная книга. Но в обозримой перспективе бумажная книга все равно останется доминирующим способом донесения авторского продукта до широкой аудитории.

    — Ну да, если она приходит полностью?

    - Да, тогда электронная книга будет оплачивать это процесс. Суть в том, что все деньги должны попасть в итоге к издателям и авторам. Если тысяча рублей, потраченная на книги, останется в игре, то какая разница, с какой книги их получит издатель, чтобы окупить эти процессы. С бумажной или электронной книгой — ему все равно.

    — Высказываются такие мнения — кстати, похоже, небезосновательно, — что рынок традиционного книгоиздания ждет примерно та же судьба, которая постигла музыкальную отрасль. Жадные лейблы заламывали бог знает какие цены на CD, а потом пришли интернет и MP3 и продажи дисков упали. Потребитель думает: зачем мне покупать диск, какого-то кота в мешке, пока я не услышу, что там на этом диске? А послушав MP3, он думает: я это уже слышал, зачем мне за CD платить? С книгами такого не произойдет случаем? И не происходит ли уже?

    - — Сложно сказать, В перспективе, я думаю, что произойдет изменение структуры рынка в пользу электронной книги. Изменится средняя цена на книгу, но при этом вполне возможно вырастет и потребление книг. Так что судьба издательств далеко не определена. Если они начнут активно работать с электронной книгой, то могут получить рост продаж, а не спад, который был на музыкальном рынке. Все-таки книги другой продукт, потенциально более богатый по эмоциям, вовлечению и получению обратной связи от потребителя.

    — Но если весь процесс сильно падает в цене, соответственно падает в доходах все остальное.

    - Не падает в цене... Издательская процедура без печати потребляет не такие уж большие деньги для каждого проекта. Процессы эти НЕ ОЧЕНЬ затратные. Я думаю, что по некоторым книгам продажи электронных вариантов уже могли бы окупать эти процессы, просто издатели не направляют их целевым образом. Пока рост доходов от электронных книг рассматривается как приятное дополнение. В разговоре со многими издателями часто можно услышать: «Мы не ожидали, что электронная книга принесет нам столько денег». Это говорит о том, что это для них приятное «дополнение», но и не более того.

    — Кто как. Мы недавно опубликовали интервью с книгоиздателем, который полагает, что электронная книга вполне может оставить традиционное книгоиздание не у дел полностью.

    - Он-то, может, и обеспокоен, но если ему за электронную книгу станут платить, он, скорее всего, высказываться против не будет.

    — У него нет доказательств, что за электронные книги люди и вправду готовы всерьёз платить.

    - Нужно сотрудничать с «ЛитРес», тогда эти доказательства будут. Есть много вариантов того, как продать свою электронную книгу. В чем суть модели издательской? Есть книга, которая стоит 200 рублей в розницу. Ее издатель продал за 100. Реальные затраты при тираже 5 тысяч экземпляров на верстку и корректуру максимум 50 тысяч рублей. Что-то он вложил в печать, тысяч 50-100. Авторам он отдал 50-70 тысяч. У нас остается тысяч 200-300, которые идут целиком издателю на покрытие общих расходов. Почему кажется, что такая маржа огромная, так это потому, что продажи книги распределены во времени. Ты печатаешь 5 тысяч и вкладываешь вот эти деньги, условно говоря, сразу, а продают некоторые издательства её по шесть, по двенадцать месяцев. Кто-то еще больше продает, если мы говорим о деловой литературе. С электронной книгой нет этого «размазанного» процесса.

    И не нужно засаживать единовременно 100-200 тысяч рублей в типографию и ждать пока они окупятся. Ты должен направить деньги в редактуру, а авторские отчисления ты можешь по реализации платить. Экономика значительно меняется и поэтому потребность в оборотных средствах падает. В целом, если говорить про экономику, на электронной книге есть экономия. Главное, чтобы пользователи были научены платить. За рубежом их уже научили. Я думаю, это неминуемое, и мы тоже научим.

    — А каким образом можно этого добиться? Вы считаете это возможным, учитывая, что у нас множество электронных библиотек?

    - Отключать библиотеки.

    — То есть, грубо говоря, насильственными средствами?

    - А как иначе? С библиотеками экономические рычаги не работают. Допустим, человек нарушает закон, отнимает сумки на улицах. А вы подходите и говорите: «Знаешь, это неправильно, давай ты не будешь больше отнимать». Он отвечает: «Да, ок, ты хороший парень, мне нравишься, вот твою жену и дочку не буду обижать». А потом он отнимает у твоей мамы, а потом и у сестры... А есть люди принципиальные: «Я отнимаю сумки у всех на этой улице и мне все равно, что ты говоришь мне. Если можешь — догони, я чемпион мира по легкой атлетике».

    Разговор с пиратами сводится именно к такому варианту. Кому-то ты говоришь: «Ребят, не стоит выкладывать книги, это преступление». Ответ: «Да-да, хорошо». Прекращают выкладку, а через пару месяцев снова тоже самое. Мы с ними связываемся и слышим: «Да, ок, не будем». Но есть люди, которые вообще не идут на контакт. У них такая позиция, пока их не прижмешь, они будут чувствовать себя свободно и ничего делать не станут. По принципу «Сможешь – догони». Вот с ними договориться нельзя.

    Дать им экономическую модель? Мы даем, пожалуйста, зарабатывайте на продаже электронных книг. У нас действует одна из таких свободных реферальных программ, мы даем до 35% от наших продаж партнерам, которые помогают нам эти продажи делать. Это очень большая ставка для Рунета. Я могу сказать, что это больше, чем мы даем партнерам, которые продают наши книги у себя на сайте (Amazon и прочие). Мы ценим тех пользователей, которых нам приводят наши партнеры, рефералы. Для них это не работа.

    Некоторые работают, а некоторые говорят: «Извините ребята, но я так работаю, а иначе я буду терять трафик». Единственный вариант — это прижать пиратов. И, к сожалению, я других вариантов не вижу. Если издатели, авторы и мы не будем зарабатывать на книгах, то этого бизнеса не будет вовсе. Рынок должен давать деньги, иначе это не рынок. Рынок — это оплачиваемый спрос. То есть это желание потребителя заплатить за какую-то услугу или продукт.

    — Уже были случаи, когда успешно удавалось одолеть каких-либо пиратов?

    - Пока мы работали через модель «Давай ты не будешь отнимать сумочки». Сейчас у нас уже на стадии подачи искового заявления находится два или три дела. И по остальным делам полный сейф бумаг. Просто в нашей стране подача искового заявления занимает достаточно продолжительный период. Нужно заявление зафиксировать у нотариуса, а это занимает несколько недель. Затем необходимо зафиксировать нарушения, подать адвокатский запрос. Адвокатский запрос может давать ответ месяцами. По последнему случаю мы ждали ответ три месяца. Только после этого мы идем в суд, оплачиваем пошлину, и только теперь мы имеем право подавать исковое заявление. С этого момента начинают рассматривать дело. На все это тратится в среднем шесть месяцев.

    Но мы уверенны, что в следующем году начнут «выстреливать дела». Будем прижимать пиратов, призывать к ответу. Это не халява! Воровать интеллектуальную собственность — это преступление. Мы работаем в этом направлении и стремимся упростить эту процедуру, чтобы она не занимала 6 месяцев, как сейчас. В идеале должно быть так. Я правообладатель, у меня есть исключительные права. Я сказал, что это правило нарушено, оформил все бумаги у нотариуса, и этого должно быть достаточно для того, чтобы приостановить деятельность того или иного сайта.

    — А если сайт, о котором речь идет, находится не на территории РФ, а в другом государстве, где законы РФ, понятное дело не работают и не распространяются. С этим как?

    - «Отрубать» на уровне кабеля, входящего в Россию. Если кто-то совершил правонарушение зарубежом, то ему не дадут визу в Россию.

    — Но перерубить кабель на уровне Ростелекома от другого государства...

    - Из всех государств ведет один кабель через Ростелеком или кого-то еще и стоит какой-то фильтр на входе. Вот этого достаточно. Но, поймите, что контроль входящего трафика это только один вариант решения проблемы, существуют и альтернативы. Надо искать решение существующей проблеме.

    — Но вы понимаете, что сразу будет дикий скандал и много шума по поводу лишения прав...

    - Я понимаю, и мы к этому готовы. Пусть пираты пошумят чуть-чуть насчет нарушения прав, но не я.

    — Шуметь будут не они, а поборники свободы слова.

    - Шум — хорошая вещь — и PR. Любое изменение происходит через перелом. Насколько он болезненный — это вопрос. И нужно сделать этот перелом, иначе будут шуметь правообладатели и загнется рынок. Но если есть пираты, что с ними сделать? По-другому на них воздействовать достаточно тяжело. Я почему-то должен тратить свои деньги, до 50 тысяч долларов, чтобы их достать, и то не со стопроцентной гарантией. Зачем мне это, по-хорошему? А если он не один? А если их таких десять? Кто-то мне должен принести эти деньги, а кто мне их принесет? Почему я должен себя защищать? Я же налоги плачу, ЕСН, НДС, авторам — роялти, а они ничего не платят. И я еще должен платить деньги, чтобы их закрыли. Как такое возможно? Компания «ЛитРес» — обладатель исключительных прав на ряд произведений.

    — Вспоминается недавняя история с Youtube в Комсомольске-на-Амуре, где суд вынес решение заблокировать сервис «за экстремизм» вовсе — благо там провайдеров немного. В общем, закрыли, потом открыли. В итоге был большой скандал на всю страну. Вы считаете, что это вполне реально, что Вам удастся получить судебное решение, предписывающее перекрыть доступ к каким-либо пиратским ресурсам?

    - Если другие варианты не найдем, то придется действовать именно так. Пока я других вариантов не вижу. Для того, чтобы бегать за пиратами по всему миру материальных и физических средств нет, а государство пока не стремится помогать.

    Я надеюсь, что мы получим возможность воздействовать на пиратов. Даже сложно представить их количество в сети интернет. Есть информация, что в отпуске Дмитрий Медведев читал книги Стига Ларссона в электронном виде. Я вам открою тайну: прав на автора в России нет ни у кого, ни на перевод, ни на само издание на русском языке.

    Потребители даже не знают, что потребляют пиратский контент. Вы приходите на рынок, и вам предлагают читалку, и в ней уже как бонус записаны сто тысяч наименований книг. Вы даже не догадываетесь, что все это пиратские книги. Это называется неотрегулированное законодательство.

    В итоге, если ничего с этим рынком не предпринять, то завтра вам просто нечего будет читать. Будете читать Стига Ларссона, но на английском языке и платить нормальные деньги. Или будете читать самиздат. Какие-то авторы из любви к творчеству будут писать. Но они будут писать меньше книг. Может, они будут ценнее.

    Лев Николаевич Толстой, Александр Сергеевич Пушкин — они творили не только из любви к искусству. Ключевые их произведения были написаны за деньги, потому что мы понимаем, как это работает: есть дедлайн, есть сумма, есть интерес, и почему-то приходят и муза, и креатив.

    Если этот процесс не оплачивается, то нет никаких стимулов «творить». Автор в каком-то свободном режиме будет писать, писать и слушать своего выпускающего редактора тоже не будет, т.к. редактора не будет.

    - Коммерческие писатели, кстати, иной раз сталкиваются сейчас с ситуацией, когда им в издательстве говорят: у вас слишком хороший язык, ухудшите его. Вот это как?

    - Упростить, наверно. Я не издатель, мне сложно рассуждать на эту тему.

    — А не приведет ли это напрямую к деградации и читателя тоже?

    - Язык прогрессирует, и труды Ломоносова в оригинале читать и понять сложно. Упрощение языка — это нормальный процесс. Я недавно прочитал книгу «Rework: бизнес без предрассудков», и хоть это и переводная книга, прочел очень быстро, поскольку легкий язык. Не то, что написано «молодежным» языком, в просто и доступно подана информация. Донести искусство в массы не получится, потому что массы и искусство — темы разные. Люди массово в театр не ходят, даже в кинотеатр массово не ходят, честно говоря.

    Люди массово смотрят телевизор. Попробуйте им массово показать артхаусное кино по телевизору — например, «Весна, осень, зима и опять весна...» Ким Ки Дука. Я сомневаюсь, что вообще смотреть будут, хотя кино отличное. Поэтому если автору нужна массовость, его могут попросить упростить язык, сделать более динамичные сюжеты, упростить шутки, сделать их не такими высокоинтеллектуальными..

    Если автор хочет искусства, то это, возможно, уже другой жанр и другие деньги. Но это вопрос издания книги и тут лучше спросить и профессионалов именно издания книг, а не меня, т.к. я продаю уже созданный продукт.

    Если электронная книга не войдет в русло рынка, то рынка не будет, никто не будет рассказывать людям, как надо писать, чтобы интерес был массовый, чтобы автор и книга были обсуждаемы. Наверняка будут проекты а-ля Гришковец: человека вроде бы никто не направлял, он сам вышел к массовости. Я не знаю его издательскую и редакторскую карьеру, может, его кто и направлял. Наверняка такие мэтры останутся, но их будет меньше, интенсивность писания так же будет снижаться, да много ещё чего будет меньше.


    К оглавлению

    id="interactive_2">

    Отец мультитача о будущем интерфейсов

    Андрей Письменный

    Опубликовано 01 декабря 2010 года

    В одном из просторных кабинетов новенького офиса Microsoft в Крылатском страшная кутерьма. Двое операторов устанавливают видеокамеру и свет, PR-менеджер нервно крутит в руках телефон, время от времени заглядывают ещё какие-то люди. Я сижу в кресле, искоса поглядываю на экран макбука (его попросили отодвинуть подальше — чтобы в кадр не попадал) и тоже слегка нервничаю. Напротив меня — ещё одно кресло, пока пустующее. С минуты на минуту его должен занять гость из Штатов, к приезду которого, собственно, все так судорожно готовятся.

    Билл Бакстон не известен широкой публике, однако в своей области его можно считать очень весомой фигурой. В 1985 году, за четверть века до айпада, он разработал графический планшет с поддержкой мультитача. От нынешних сенсорных дисплеев тот отличался разве что отсутствием экрана под чувствительной поверхностью.

    Бакстон до сих пор трудится в области исследования человекомашинного взаимодействия и интерфейсов. Он успел поработать в легендарном Xerox PARC и компании Silicon Graphics, получить три докторских степени и множество наград за свои изобретения, преподавать в университете Торонто, написать несколько колонок в журнал BusinessWeek и книжку Sketching User Experiences. С 2005 года Билл Бакстон занимает должность старшего исследователя в Microsoft Research и продолжает свои разработки.

    Все эти (и ещё многие сюда не уместившиеся) титулы и достижения не помешали Бакстону оказаться милейшим и обаятельнейшим дедушкой в безразмерном свитере. Стоило ему появиться на пороге комнаты и поздороваться с собравшимися своим ласковым баритоном, как напряжённая атмосфера в момент рассеялась. Рассеялись и мои опасения о том, что человека из Microsoft, возможно, придётся долго допрашивать, прежде чем он перестанет говорить заученными рекламными фразами. От корпоративных ценностей Бакстон оказался поразительно далёк, а на любой вопрос отвечал захватывающей дух речью.


    На следующий после интервью день Билл Бакстон выступил на конференции User Experience Russia 2010

    - Расскажите для начала о своей работе. Каково это вообще — работать в Microsoft Research?

    - Microsoft Research во многом напоминает университет, в частности — своим устройством. Моя работа похожа на работу профессора в научной лаборатории — за тем лишь исключением, что не нужно преподавать. У нас есть исследовательские проекты, а моя специальность — человекомашинное взаимодействие: жесты, устройства ввода и так далее.

    Мы ставим эксперименты, делаем прототипы, тестируем их, а потом показываем результаты на научных конференциях — к примеру, на этой неделе в Нью-Йорке проходит конференция, посвящённая техническим аспектам пользовательских интерфейсов. Там мы представим нашу работу о вводе данных, задействующем обе руки — так, чтобы можно было использовать прикосновение и перо одновременно.

    Последний проект моей группы призван доказать, что само противопоставление пера и прикосновения неверен, потому что их лучше всего использовать вместе. Иногда одно, иногда другое, но зачастую лучше всего — вместе.

    "В компьютерной технике и телекоме нужно минимум двадцать лет, чтобы новая идея стала по-настоящему популярной"

    В Microsoft тысяча человек вроде меня, и им удаётся покрыть все области знания: компьютерную науку, инженерные аспекты, даже физику, физиологию, социологию и психологию. Это контекст для всего, связанного с компьютерами. Каждый из нас старается понять, как каждая из этих дисциплин может помочь бизнесу и старается сделать свою разработку важной для компании.

    - Вы, наверное, много взаимодействуете с другими исследовательскими группами?

    - Да, я думаю, это моя личная черта. Кажется, я не сделал ни одного проекта, который бы не подразумевал взаимодействия с другими исследовательскими группами — как внутри Microsoft, так и с продуктовыми группами, а нередко — и со специалистами из других стран. Мне важно общение с людьми, имеющими опыт в разных областях — их взгляды на мир различаются поразительным образом. Когда я зову их участвовать в моих проектах или помогаю с их разработками, у меня куда больше шанс чему-то научиться или сделать что-то неординарное.

    - Проекты Microsoft Research редко воплощаются в том виде, в котором разрабатывались. Вы можете рассказать, какие из ваших проектов нашли применение в конечных продуктах?

    - В компьютерной технике и телекоме нужно минимум двадцать лет, чтобы новая идея стала по-настоящему популярной. Многие удивляются: «Как такое возможно?» Технологии же развиваются очень быстро, почему же момент изобретения и широкое применение разделяют десятилетия?

    Приведу несколько примеров. Мышь изобрели в 1965 году. Я сам использовал одну из них в 1971. В Xerox PARC мышь появилась в 1973. К Apple Macintosh мышь прилагалась с 1984. Но только в 1995, когда вышла Windows 95, мыши действительно распространились повсеместно.

    Ещё пример. Я работал над мультитачем в 1984, а в 1985 опубликовал статью об этом. Но всё равно никто, кроме профессионалов, не знал о мультитаче до 2007 года, когда появились два продукта: Microsoft Surface и Apple iPhone. И внезапно мультитач стал великолепной новой штукой. Новой штукой — из 1985 года!

    - Значит, сейчас вы работаете над проектами, время которых настанет через двадцать лет?

    - Конечно. Такая у меня работа. Это не значит, что некоторые идеи не всплывут раньше, но многие проекты Microsoft Research действительно рассчитаны на двадцатилетний период. Надеемся, конечно, что хватит и десяти лет, но все понимают, что может потребоваться и двадцать.

    У нас есть и такие подразделения как Office Labs и Live Labs — это уже не исследователи, а, скорее, разработчики. Они берут идеи исследователей и думают над тем, как использовать в продуктах.

    Об исследовательских проектах нужно думать, как думают банкиры: есть деньги, их нужно инвестировать. Часть из них должна окупиться быстро, часть — медленно. В Microsoft Research рассматривают долгосрочные перспективы, в Labs — среднесрочные, а в продуктовых группах — ближайшее будущее, не дальше пяти лет.

    Microsoft Surface — хороший пример. Он появился в последние пять лет, хотя некоторым наработкам, которые в нём применили — не меньше пятнадцати лет. Огромную работу проделали без лишней шумихи, просто в какой-то момент все смогли увидеть результат.

    Другой пример — Kinect для Xbox 360, технологию для которого создали в кембриджской лаборатории Microsoft Research в Великобритании. У нас там есть таланты мирового уровня, специализирующиеся на машинном зрении. Они разработали систему трёхмерного распознавания, лёгшую в основу Kinect. На их счету важная научная работа в области математики, благодаря которой распознавание жестов стало возможным.

    - Kinect всё-таки стал конечным продуктом. Surface — тоже, но шумиха вокруг него быстро закончилась, и с тех пор про него ничего не слышно. Можно ли его считать успешным?

    "Surface очень интересен, потому что это далеко не просто экран с мультитачем. Самое важное в Surface — то, что экран одновременно служит оптическим сенсором"

    - О «Кинекте» много говорят, потому что это продукт для всех, к тому же он только-только начал продаваться. С Surface всё не так просто. Он ведёт за собой куда более важные изменения, да и сама технология куда сложнее. Конечно, хотелось бы, чтобы всё происходило быстрее. Создать телефон, плеер или новый тип компьютера можно довольно быстро. Но Surface — куда более амбициозный проект, и здесь немало сложностей. Сперва нужно сделать так, чтобы «железо» заработало, затем — софт, а уже потом нужно думать, как заставить то и другое работать вместе. «Железо» нынешней версии Surface впечатляет, но при этом оно дорогое и довольно неуклюжее. Нам удалось достичь немалого успеха в крошечной рыночной нише. Поскольку Surface сложно и дорого изготовлять, мы решили сконцентрироваться на узких и практически незаметных для широкой публики рынках.

    - И что это за рынки?

    - Области вроде ритейла, банков, отелей...

    - Можно сказать, что там Surface действительно используют?

    - Используют. Есть магазины, в которых можно взять товар, положить на Surface и изучить дополнительную информацию, но таких мест не очень много. И это, на самом деле, хорошо, потому что сперва лучше найти узкую область, в которой есть шанс достичь настоящего успеха. Пользователи довольны Surface, но они, скорее, бета-тестеры (хоть официально Surface и не считается «бетой»). И у нас теперь есть несколько лет опыта использования устройства, и мы знаем, как улучшать софт и систему. Мы знаем, что аппаратная часть станет проще и дешевле. Так всегда происходит с технологиями — упрощение и миниатюризация потихоньку меняют всю экономику производства.

    Иногда новая технология кажется совершенно ужасной — для неё нет ни софта, ни достойного применения, и люди просто не знают, как её использовать. Мы не можем позволить этому произойти. Благодаря тому, что с Surface мы работаем уже несколько лет, мы будем готовы к появлению следующего поколения «железа», и новый софт от этого выиграет.

    Surface очень интересен, потому что это далеко не просто стол и не просто экран с мультитачем. Самое важное в Surface — то, что экран одновременно служит оптическим сенсором — наподобие сканера. На него можно положить документ или объект, и устройство его «увидит». Оно реагирует и на пальцы, что обеспечивает мультитач, но в отличие от ёмкостного или резистивного экрана Surface не только воспринимает прикосновения, но и по-настоящему видит объекты, сканирует и оцифровывает их. Это самое замечательное.

    - Ну да, мы все видели демонстрации. Есть ещё один интересный продукт, о котором я хотел вас расспросить. Он назывался InkSeine, и, кажется, впоследствии какие-то его элементы были использованы в многострадальном Microsoft Courier. Со стороны он многим кажется неудачей, но вы наверняка знаете куда больше.

    - Конечно. Это разработка как раз моей группы. InkSeine создал один из моих ближайших коллег — Кен Хинкли. Как раз о нём я говорил, когда упомянул сотрудника, который демонстрирует в Нью-Йорке наш проект, сблизивший тач с перьевым вводом.

    - То есть работа движется?

    - Конечно! Пока что это всё лишь исследования, но у нас есть, что показать. Другая группа в Microsoft Research разработала замечательную программу для рисования — Gustav. В отличие от других программ для рисования на компьютере, она по-настоящему моделирует физику красок. Мел, к примеру, будет отличаться от масляной краски — её можно смешивать пальцами, а мел — размазывать и так далее. Рисовать при этом можно и пером, а пальцами — подправлять или же двигать и масштабировать холст. Получается, что пальцы и кисть можно использовать одновременно.

    Я знал, что вы упомяните Courier. Наша цель — доводить до рынка хорошие технологии, но иногда бывает так, что конечный продукт не так важен. Идеи продолжают развиваться, научные статьи публикуются...

    - То приложение с красками производит впечатление очень «аналогового» что ли. Вам не кажется, что правильнее было бы не пытаться эмулировать аналоговое, а придумать, как извлечь пользу из того, что у компьютеров получается лучше?

    - О, это отличный вопрос, я рад, что вы его задали. Это, на самом деле, больше похоже на выбор тактики. Когда новая технология готова к использованию, людей нужно убедить в том, что она работает. Для этого стоит сделать знакомую всем вещь, но на цифровой основе. Её можно показать всем и сказать «попробуйте». Вместо того, чтобы решать, вы правы или я, лучше всего попробовать и прислушаться к своим ощущениям. Вы уже использовали компьютер раньше и сперва отзовётесь негативно. Потом скажете: «Но я же не художник, зачем мне краски? Я инженер или музыкант или банкир или в игру хочу поиграть — не важно». Я отвечу: «Я это понимаю, но зато теперь мне стала понятна физиологическая сторона. У тебя ведь две руки?» — «Что за глупый вопрос? Конечно!» — «Ну и почему ты всю жизнь используешь только одну при работе с мышью (кроме тех моментов, когда приходится печатать)?».

    Как использовать обе руки при работе с компьютером? Когда мы пишем на листе бумаги, мы обычно не просто водим по нему карандашом, вторая рука при этом обязательно придерживает и направляет лист. При письме руку комфортно передвигать примерно на шесть сантиметров — не больше. Это можно учесть, причём даже в работе, к примеру, с электронными таблицами.

    Приведу пример ещё лучше. Представьте, что я работаю с небольшим устройством — величиной с мобильный телефон. Там у меня есть карта, и я хочу показать на ней, как добраться из аэропорта до московского офиса Microsoft. Если карта умещается на экране целиком, то от неё никакого прока — слишком мелко. Её нужно приблизить и начать рисовать на ней путь, но разве это не безумие — нарисовать три линии, подвинуть, нарисовать ещё три линии, передвинуть и так далее?

    Гораздо лучше было бы водить устройством так, будто оно — увеличительное стекло над реальной, но невидимой картой. Гироскоп, акселерометр или поток оптических данных со встроенной камеры в этом помогут. Тогда можно будет передвигаться над «картой» и, будто мы управляем камерой, приближать телефон для разглядывания деталей или отдалять для того, чтобы осмотреться. Вот тогда можно будет и рисовать, и передвигать карту, и говорить одновременно, а потом отправить в виде сообщения — к примеру, в машину, а её навигационная система отобразит послание.

    В какой-то момент становится понятно, что работа с картой очень напоминает рисование! Двигаться по карте — в точности то же самое, что двигать холст в «Густаве». Представьте себе такую ситуацию: вам нужно добираться сюда, а у вас дома проблема с окном. Нужно вызвать ремонтников, но поломка — в определённом месте одного из окон. Времени ждать и показывать нет, потому что нужно по делам. Вы выходите из дома, берёте с собой камерофон и фотографируете фасад. А потом помечаете на картинке нужное место и отправляете в виде сообщения рабочим.

    В телефоне есть тачскрин, камера и микрофон. Но почему-то ни один из телефонов пока что не позволяет делать то, что я описал, хотя это и было бы ценно.

    Заметьте, что в этих примерах вы рисуете, но не что-то художественное, а аннотацию. Возвращаясь к вашему вопросу, программа для рисования эмулирует старый способ рисовать, но само рисование здесь не имеет особого значения. Что имеет значение — так это умения людей, те умения, которые у нас есть всю жизнь и которые мы применяем в обычном мире. Если придумать, как использовать этот потенциал и эти навыки, то можно перейти на другой уровень абстракции: речь пойдёт уже не о рисовании, а о манипуляции объектами, аннотировании и объединении этих действий.

    Это уже не просто навигация, увеличение или перемещение — ведь одновременно можно что-то помечать и отдавать голосовые команды. Представьте, что такую схему будут использовать для других типов документов. Что изменится, если к ним можно будет применять те же навыки? Получается уже не эмуляция, а нечто инновационное — ведь мы переносим уже известные принципы на другие задачи и другие устройства — Surface, планшет, мобильный телефон или даже настенную доску. И выходит, что это не просто копирование чего-то старого, а использованее лучшего, что могут дать цифровые технологии, и лучшего — из того, что умеют люди.

    Вообще говоря, я довольно подробно изучал традиционные медиа, но мои исследования лежат вовсе не в области софта или железа. Их предмет — люди. Как они устроены? Что сделать, чтобы технология учитывала их способности? Ваш вопрос хорош тем, что позволил показать, как двигаться от копирования к инновации.

    - Что ж, убедительный ответ! Но давайте подробнее поговорим о тачскринах. Они были изобретены давно, но за последние пару лет внезапно стали мейнстримом. Что, по-вашему, послужило толчком к их распространению?

    - Первые тачскрины действительно были изобретены в 1965 году — примерно тогда же, что и первые мыши. В 1972-73 в Иллинойском университете был проект по компьютерному обучению. К 1974 в школьных классах по всему Иллинойсу стояли компьютеры с плазменными панелями (которые изобрели там же) и поддержкой тача, и ими пользовались семилетние дети.

    - Повезло детям!


    - Ещё как! Система досталась не исследователям или бизнесменам, а детям. Называлась она PLATO. Резонный вопрос — что же случилось с этой разработкой?

    У меня есть большая коллекция гаджетов. Давайте покажу вам один из них. Смотрите, это просто часы, они похожи на те, что я ношу сейчас — у них есть циферблат и ещё небольшой экранчик внизу. Их роднит ещё одна вещь — и те, и другие снабжены тачскринами. В этих старых часах есть калькулятор. Нажимаем вот на эту кнопку, на экране появляются буквы CAL — «калькулятор». Мне нужно ввести цифры — я их просто рисую на поверхности. Рисуем "1" — появляется единица. Теперь пишем "7", чтобы вышло «17». Теперь знак "+", "3" и знак "=".

    - Впечатляет.

    - Да, здорово. Вы технический журналист и наверняка должны знать, когда такие часы стоили дешевле ста долларов.

    - Несколько лет назад?

    - Сколько именно?

    - Пять? Десять?

    - Ещё.

    - Пятнадцать?

    - Нет!

    - Двадцать?

    - Тоже нет!

    - Двадцать пять, может быть? Вряд ли больше.

    - Двадцать шесть!


    - Эти часы — с тачскрином, распознаванием рукописного ввода и калькулятором, были сделаны и продавались в магазинах по всему миру в 1984 году. В том же году, когда появился первый Macintosh. Ещё раз: 1984 год, дешевле ста долларов, тачскрин, распознавание рукописного ввода, размер обычных часов... Всего через десять лет после PLATO. Да что мы вообще делали последние 26 лет?!

    Вам наверняка известен закон Мура. Число транзисторов, умещающихся на кристалле определённого размера, удваивается каждые 18 месяцев. Чтобы получить число за последние 26 лет, нужно умножить 26 на 12 и поделить на 18 — получится, что с тех пор, когда появились эти часы, число транзисторов, умещающихся на чипе, удвоилось семнадцать раз. Если бы микросхема, отвечавшая в этих часах за распознавание символов и обработку информации с тачскрина, создали сегодня, в ней при том же размере было бы в 217 раз больше транзисторов

    - Не могу поверить, что они продавались на Земле, а не где-нибудь на Альфе Центавра.

    - Эта штука, конечно, довольно медленная и распознаёт не идеально. Сегодня можно сделать куда лучше — как Graffiti. И ещё один нюанс. Мы живём в век «Твиттера» и SMS, и каждый, кто пишет на телефоне, делает это большими пальцами, уставившись в экран — чтобы не пропустить ошибку. Я могу показать вам тачскрин двадцатишестилетней давности, на котром можно было писать, не глядя. Ввод текста на нём не был привязан к пространству, не нужно было попадать по крошечным целям. На нём нужно было рисовать, а это мы все умеем делать.

    "Традиционная форма исследования — это не изобретение, а изучение прошлого и последующие попытки осмыслить, понять и применить к новым условиям"

    Люди часто думают, что исследования (в частности, в Microsoft Research) — это обязательно изобретение новых продуктов. Отчасти это правда. Но традиционная форма исследования — к примеру, в истории или социологии — это не изобретение, а изучение прошлого и последующие попытки осмыслить, понять и применить к новым условиям. Лично я половину времени изучаю прошлое, пытаясь осмыслить случаи, похожие на те, которые я описал. Это важнейшие прототипы, и я их не создал, а просто купил, и они помогают понять, как, к примеру, сделать лучший смартфон.

    Кстати, у меня есть первый в мире смартфон. Давайте я вам его опишу, хотя бы для смеха. Представьте такой телефон — у него три кнопки (включение-выключение и регулировка звука), а всё остальное делается при помощи тачскрина: звонки, адресная книга, календарь... Что я сейчас описал?

    - Боюсь, трюк не пройдёт — я смотрел ваши статьи и видел упоминание этого телефона. И это не iPhone.

    — Да, он назывался Simon. Джонатан Айв, который создал iPhone, а до этого работал над Newton, наверняка знал про Simon. Все эти идеи не новы — они эволюционируют.


    У Simon не было мультитача, у моей разработки — был, но всё равно и то, и другое уже в прошлом. Залог успеха продукта — не в какой-то единственной технологии. Технологию можно сделать за год или за два, гораздо сложнее интегрировать её в экосистему других технологий (в том числе и устаревших).

    Почему Simon провалился, а iPhone — нет? Всё дело во времени. Когда создавался Simon, телефоны были дорогими, а скорость передачи данных — низкой. У Simon не было веб-браузера — просто потому что веб в 1993 году ещё не изобрели.

    Хотя вещи вроде «Саймона» или тех часов обычно остаются неизвестными, благодаря им можно многое узнать. Это яркие представители технологий, проходящих период инкубации и готовых воплотиться в новый продукт. А значит, что и сейчас имеется много вещей, которым уже десять или пятнадцать лет, и которые готовы к новому рождению.

    - Понятно — значит, всё дело не только в тачскринах, но во всей совокупности технологий...

    - Конечно. Сколько лет мы уже слышим, что распознавание рукописного ввода появится в следующем году? (В России, кстати, лучшие специалисты в этой области. Это сложная математическая задача, а тут много отличных математиков.)

    А что с распознаванием речи? Все говорят, что оно вот-вот станет повсеместным. Говорят причём уже лет тридцать. Тем временем распознавание речи действительно мало-помалу начинает работать. Кстати, занятная деталь с распознаванием: его точность всегда составляла 98%, просто тесты всё время становятся всё сложнее и сложнее.

    И ещё нужно понять, как объединить эти технологии вместе. Когда ведёшь машину, телефон действительно должен управляться исключительно голосом. А вот если я лечу на самолёте в Сан-Хосе и хочу по телефону рассказать что-то важное, меня могут и уволить, потому что рядом легко может сидеть кто-нибудь из конкурентов. Зато если я буду писать, никто ничего не узнает. А бывают случаи, когда нужно и писать, и говорить одновременно — как в примере с отправкой фотографии с пометками.

    Это действительно всё усложняет. Когда я начинал работать с компьютерами в 1971 году, они были приписаны к лабораториям и выполняли строго определённые задачи. Сейчас компьютеры повсюду, и их задачи становятся всё сложнее.

    - Сейчас мультитач уже относительно распространён. Как вы думаете, его потенциал уже используется полностью, или ещё есть, что добавить?

    - Добавить — многое. Даже в случае с телефонами — у них есть мультитач, можно использовать и перо или голосовой ввод, но эти возможности используются не одинаково хорошо, что уж говорить об использовании всех трёх сразу.

    Вот что людям даётся легко, а компьютерам — сложно, так это одновременные действия. Мы всегда находим способ объединить две-три простые задачи в одну цельную, но лёгкую в исполнении. Я могу находить дорогу на карте или рисовать поверх фотографии и менять масштаб по ходу дела. На телефоне эти действия никак не выполнить одновременно. Если же их можно будет делать одновременно, да ещё и одной рукой, то вторую можно будет задействовать ещё для чего-нибудь, а затем и голос. Это куда более естественное поведение — и его ещё предстоит воплотить.

    Но это ещё не весь ответ. В ближайшие лет пять индустрия сможет произвести действительно хорошие и хорошо спроектированные гаджеты. Но индустрии ещё есть к чему стремиться.

    - Есть ли, по вашему, какие-то тупики, связанные с развитием новых интерфейсов — мультитача в частности?

    - Конечно. У меня есть правило, я его часто повторяю: любая вещь хороша в одном случае, но не годится — в другом. Компетентный дизайнер должен знать, что он делает, для кого, когда и почему. Когда ко мне приходит дизайнер и говорит, что он изобрёл новую технологию, я первым делом говорю, что это очень интересно, и тут же спрашиваю, в чём подвох. В чём эта вещь бестолкова? Если дизайнер не знает, я ему отвечаю, что работа не готова, он ещё не понимает, что делает, и что нужно вернуться к проектированию. Или же я собираю группу, и мы ищем недостатки вместе.

    "Когда ко мне приходит дизайнер и говорит, что он изобрёл новую технологию, я спрашиваю, в чём подвох. В чём эта вещь бестолкова?"

    Так или иначе, я должен рассмотреть проблему со всех сторон. Только поняв недостатки, можно сосредотачиваться на достоинствах. Мало кто об этом задумывается, а ведь именно это умение отличает просто умного человека от профессионального дизайнера или исследователя.

    Что касается именно мультитача, то он хорош для многого, но как и всё — для чего-то бесполезен. Для того же рисования: не зря же Пикассо использовал кисть, а не рисовал пальцем как пятилетний ребёнок. Но это не значит, что он вообще ничего не трогал руками.

    До чего же можно и нужно дотрагиваться? Есть хорошие примеры. Взгляните на руки — может показаться, что мы используем в основном правую руку, и что левая не так уж важна. Но это не так. Левая настолько же специализирована, насколько и правая — просто нужна для другого: поддерживать, обхватывать и так далее.

    У меня есть коллега — французский психолог Ив Гиар, он рассказал мне много интересного — в том числе о том, как мы пишем.

    Билл Бакстон рассказывает о наблюдениях Ива Гиара, посвящённых письму на бумаге

    Или, к примеру, историю о том, что пуговицы на женской одежде расположены с неверной стороны. Не просто с другой, а именно с неверной. Работает это так: сперва человек подносит свою недоминирующую руку (для большинства — левую) и нащупывает ей то место, где будет производиться действие, затем следует доминирующая рука, подтягивает вторую часть куда нужно, и делает завершающее движение. Так мы действуем и когда вдеваем нить в иголку и когда застёгиваем пуговицы и в прочих похожих ситуациях.

    Потому у мужчин пуговицы расположены с нужной с точки зрения правши стороны. Почему же у женщин не так? Ответ оказывается очень забавным. Исторически сложилось так, что первые платья с пуговицами были очень дорогими — позволить их себе могли только богачи, а бедняки подвязывали одежду — примерно так [кивает на закутанную в шаль пиарщицу Microsoft]. Богатым женщинам не нужно было одеваться самостоятельно — для этого у них имелись слуги. И пуговицы располагались таким образом, чтобы слугам было удобно. А сегодня только мужчины могут получить выгоду из такого расположения пуговиц на женской одежде.

    Видите, даже в истории одежды можно найти уроки, полезные для понимания естественных интерфейсов. Технологии всё время меняются, а вот способ использовать руки — нет. Если изучить и понять это, то и жестовые интерфейсы сразу становятся понятнее. Появится понимание того, как сделать жесты для Kinect или Surface или мобильного телефона. Как решить, в какой руке он должен находиться при том или ином действии? К какому движению какое действие приязать? Как они взаимосвязаны? Что нужно делать одновременно, а что — поочерёдно? Нужно понять, как все эти вещи делать правильно. Я уверен, что мы до этого дойдём в ближайшие пять лет плюс минус два года.

    "Даже в истории одежды есть уроки, полезные для понимания естественных интерфейсов. Технологии меняются, а вот способ использовать руки — нет"

    Что мне кажется куда большей проблемой — это взаимодействие разных устройств. Я думаю, что в будущем никто уже не будет восхищаться одним прекрасно работающим гаджетом — будь он производства Microsoft, Apple, Philips или Sony. Ну кроме, конечно, особенных любителей гаджетов. Сегодня мы рады просто тому, как работает новый телефон, но в будущем куда важнее станет слаженная работа всей экосистемы. Пока что она раздроблена на несколько островков, плохо взаимодействующих друг с другом.

    Мой Palm Pilot был в некотором роде лучше моего нынешнего смартфона: чтобы передать визитку через Palm, нужно было просто направить одно устройство на другое и нажать кнопку. Это было абсолютно безопасно, потому что данные передавались по инфракрасному порту, и обязательно было находиться в зоне прямой видимости. С Bluetooth или Wi-Fi не только сложнее установить связь, но и сигнал идёт непонятно куда. Я, конечно, не говорю, что IR лучше, чем Bluetooth (помните, я говорил, что любая вещь хороша для одного и плоха для другого?). У IR множество проблем, но он позволяет передать сигнал в строго определённом направлении, а для некоторых задач это очень важно. Для Bluetooth ничего похожего нет.

    Я жду не дождусь, к примеру, появления электронных досок, на которые можно было бы передать информацию во время выступления и пальцем указывать на слайды, поясняя те или иные вещи. Вот, к примеру, почему эта буква 'R' перевёрнута [показывает на букву "Я" на плакате]. Такое непросто реализовать — особенно если одновременно думать о других вещах — о той же безопасности — ведь придётся везде расставить камеры.

    Мы часто создаём новые технологии, которые усложняют мир — один синдром очередного лишнего пульта в гостиной чего стоит. В ближайшее пятилетие мы начнём двигаться в другую сторону — каждая новая технология будет упрощать жизнь, а не усложнять.

    - То есть вы считаете, что будущее — за плотной интеграцией разных устройств и технологий?

    - Я думаю, что интеграция очень важна — это одна из причин, по которым я работаю в Microsoft. Эта компания участвует в большом числе самых разных бизнесов. С одной стороны, размеры компании, конечно, во многом её ограничивают, но с другой — позволяют найти специалиста практически из любой области.

    - Ещё один вопрос о будущем интерфейсов. Если мультитач и связанные с ним вещи — это сегодняшний день или ближайшее будущее, то что нас ждёт дальше?

    - Есть ещё много сенсоров, которые можно задействовать. Тем же телефоном куда легче пользоваться не посредством взаимодействия с экраном, а просто перемещая его в пространстве. С нынешнем поколением акселерометров и гироскопов это довольно сложно реализовать (особенно зум). Я думаю, мы увидим в гаджетах и другие сенсоры... С другой стороны, конечно, с Surface так не поработаешь, если ты не Супермен. В общем, это зависит от устройства.

    Мне, к примеру, интересно, что должно произойти, чтобы люди снова начали носить часы. Я, наверное, в этой комнате единственный человек с наручными часами. Люди перестали носить часы, потому что они есть в телефонах. Сегодня часы — это скорее украшение. С другой стороны, и гаджеты постепенно становятся чем-то вроде украшений.

    - Как вы думаете, экранные клавиатуры со временем станут неактуальными?

    - Я думаю, экранные клавиатуры неплохи, если нужно сделать пару несложных вещей. Но очень сомневаюсь, что из обычной клавиатуры и сенсорной вы бы для написания статьи выбрали сенсорную. На ней практически невозможно печатать вслепую. Механическая клавиатура — прекрасное изобретение, и я не думаю, что оно в ближайшее время потеряет актуальность.

    Лично я терпеть не могу экранные клавиатуры. Я думаю, даже это [указывает на те самые часы с тачскрином] удобнее. Потому что ими можно пользоваться, не склоняя голову, они точнее распознают текст и никаких проблем со слишком толстыми пальцами.

    - Выходит, нынешние телефоны в этом плане отстают от Palm Pilot пятнадцатилетней давности?

    - Graffiti в Palm Pilot вырос из моего изобретения. Я занимался разработкой первой системы компьютерного ввода при помощи условных символов.


    Система Graffiti, использовавшаяся в карманных компьютерах Palm

    Мы до сих пор очень слабо продвинулись в этой области, а ведь улучшить что-то не так уж сложно. Никто уже не помнит, а в старых телефонах Microsoft была очень интересная система. Каждое нажатие на клавишу требует времени, и всегда есть вероятность совершить ошибку. Обычно для того, чтобы ввести заглавную букву, нужно нажать Shift, а затем нужный символ. Мы же сделали экранную клавиатуру, где нужно было нажать и провести пальцем наверх, чтобы выбрать заглавную букву. Для переноса строки тоже использовался жест — вниз и налево.

    Я никого не призываю избавляться от экранных клавиатур — они полезны. Но они не могут быть заменой, а лишь дополнением. И даже если приходится пользоваться экранными клавиатурами, их можно значительно улучшить. Причём речь пока что идёт лишь о каких-то элементарных вещах. Если их до сих пор никак не доделают, то откуда ждать более сложных нововведений?

    - Вы говорили, что телефону Simon не хватает браузера. А теперь становится понятно, что интернет плохо приспособлен к новым устройствам. Или же можно как-то лучше приспособить мобильные устройства для интернета?

    - От этого, конечно, все страдают. Есть прекрасные, но сделанные для 24-дюймовых мониторов веб-страницы, которые становятся бесполезными на экране телефона. Даже «Википедией» на телефоне пользоваться не так просто. Рынок рано или поздно изменит дизайн онлайнового контента. Всё больше людей пользуется интернетом с телефонов, а значит даже думать о создании контента нужно по-другому.

    Один из моих исследовательских проектов, ещё в Silicon Graphics, включал в себя серьёзную работу, посвящённую онлайновым страницам, которые выглядели по-разному в зависимости от того, где ты находишься, и даже что делаешь. Данные в зависимости от этого предоставлялись в том виде, в котором они могли понадобиться.

    Похожая история произошла с ноутбуками — их поначалу видели как портативные версии настольных компьютеров. Телефоны тоже сперва выглядели как крошечные версии десктопа. Но это то же самое, что считать флейту — маленькой трубой. Это разные инструменты, у них разный язык. В случае с телефонами — отчасти, конечно, дело в «железе», но существенная доля проблемы — в контенте. И у Microsoft и у компаний вроде Adobe есть наработки в этой области. Microsoft Expression Blend — одна из них.

    - В вашей биографии есть пункт об исследовании, связанном с законом Фиттса. Считаете ли вы, что идеи о дизайне можно доказать при помощи формул?

    - Отчасти это так. Единственный способ узнать, правильно ли что-то — проверить. Теория даёт некое приближение к этому. Когда есть идея, лучше хотя бы на салфетке прикинуть, как она будет работать на практике, чтобы потом продолжить исследования на более высоком уровне. Или когда что-то не работает — я могу спросить «почему?» и проверить.

    Помните, я говорил о слишком мелких клавишах? Если знать размер клавиатуры и размер клавиши, то можно посчитать, насколько быстро получится печатать. Уже после нескольких тестов можно сказать, насколько, к примеру, нужно увеличить расстояние между клавишами, и как это повлияет на результат. Если же результаты тестов окажутся хуже нашего предположения, значит либо теория неверна, либо реализация хромает. Ну а если результаты окажутся лучше обычного, значит, это чудеса науки. Так или иначе, теоретическая основа позволяет достигать большей эффективности.

    - Сейчас много разговоров об A/B-тестировании. В Google, к примеру, это очень популярная методика. Что вы о ней думаете?

    - Я считаю, что A/B-тестирования недостаточно. Это, конечно, не плохая практика, потому что традиционно в компьютерной индустрии делалось только «A-тестирование», мы сравнивали "A" с "A" — то есть работает или нет. Но по моим наблюдениям, в дизайне никогда не бывает меньше пяти решений. Когда работаешь с фокус-группой и спрашиваешь, нравится ли продукт и готовы ли люди его купить, если показать только один вариант, никто не скажет «я бы никогда не стал использовать эту дребедень». Уже хотя бы потому что они не хотят тебя обижать. Ну и вообще, люди всегда ставят оценики выше, чем им кажется — потому что думают: «вдруг это я дурак, а не программа дурацкая?».

    "A/B тестирования недостаточно. По моим наблюдениям, в дизайне никогда не бывает меньше пяти решений"

    Как-то раз у нас было три варианта дизайна — первым трём группам мы показали по одному из них, а четвёртой — все три. В последней люди сразу могли выбрать вариант, который бы никогда не стали использовать. Они вообще всё оценивали хуже, и это дало куда больше информации. Когда делаешь сравнительное тестирование, люди понимают, что ты сам не знаешь, чего хочешь, значит открыт новым идеям и достоин честного ответа.

    Я рад, что мы об этом успели поговорить, потому что этот вопрос затрагивает сам процесс исследования, а не только конечные продукты. Любые изобретения в самом способе разработки обычно окупаются раз в десять лучше чем технологические инновации. Это особенно важно, потому что сегодняшние проблемы часто связаны не с отсутствием технологий, а с неумением правильно подойти к дизайну. Я думаю, что в Google неплохо решают эти проблемы.

    - У вас были исследования связанные с музыкой. Как вы думаете, можно ли считать, что в этом направлении с тех пор есть продвижения?

    - Частично изменились и технологии, но мне не кажется, что всё дело не в них. Когда я начинал заниматься компьютерной музыкой, это было элитарной и недешёвой вещью. Теперь же каждый может себе позволить этим заниматься. Другой хороший пример — видеоконференции. Моему отцу 92 года, и он использует видеочат, чтобы общаться со своими правнуками, находящимися на другом конце страны. В восьмидесятые это было сложно себе представить — даже мне, а я видел эту технологию в 1987.

    С музыкой то же самое. Можно подключить гитару к смартфону и выбирать из полного набора примочек. Или с лёгкостью организовать студию звукозаписи. Мой друг работает в музыкальной индустрии и, имея доступ к огромной студии, пишет всё на обычный ноутбук. В общем, не то, чтобы технологии становились лучше, но они становятся дешевле и доступнее. То есть настоящие изменения — социальные. Любой ученик начальной школы сегодня может иметь дома профессиональную звукозаписывающую студию. Единственное, чего ему может не хватать — музыкального таланта.

    Сейчас же всё настолько легкодоступно, что я даже думаю — не слишком ли сильно новые технологии подталкивают тратить время на забавы и так никогда ни на чём не сосредоточиться по-настоящему. Ведь что бы ты ни делал, нужно много практиковаться — это требует усилий и работы над собой.

    - Вы как-то писали для Businessweek о вдохновении — есть ли у вас универсальные советы дизайнерам и изобретателям?

    - Да, у меня есть несколько хороших советов. Первый — лучше ошибиться и чему-то научиться, чем быть правым и гордым. Второй — что бы ты ни делал, всегда нужно иметь больше одного ответа. Третий — иногда нужно перестать изобретать и начать замечать то, что у тебя перед носом. Ключевой трюк — уметь посмотреть другими глазами на вещи, которые видят все. Легко понять, что этот совет работает, потому что любое виденное нами изобретение кажется очевидным — сразу начинаешь спрашивать себя, «почему же я об этом не подумал?» Я это называю удивительной очевидностью. Но как научиться замечать такие вещи раньше других? Как и всё остальное это требует практики — нужно постоянно искать, чтобы стать лучшим искателем.


    К оглавлению

    id="interactive_3">

    Астрофизик Сергей Попов о гравитационных волнах

    Алла Аршинова

    Опубликовано 02 декабря 2010 года

    Общая теория относительности – одна из самых проверенных и надежных теорий в современной физике. Почти все предсказания в рамках этой теории были подтверждены экспериментально. Но, как известно, в ней остаётся один не проясненный до конца вопрос: существование гравитационных волн. В том, что они есть, никто из научного мира всерьез не сомневается, потому что наука располагает очень внушительными косвенными свидетельствами.

    Обнаружение гравитационных волн может произойти в трех случаях. Во-первых, если ученым повезет, и в нашей галактике произойдет, например, взрыв сверхновой. Тогда уже существующие земные детекторы, вероятно, смогут зафиксировать гравитационную волну, рожденную этим событием. Во-вторых, волны могут быть обнаружены от слияния нейтронных звезд или черных дыр, если будет повышена чувствительность существующих установок. И третий вариант – это успешная работа космических детекторов гравитационных волн, которые пока находятся на этапе проектирования и в космос отправятся еще не скоро.

    О том, как работают детекторы гравитационных волн, и когда можно ждать от них результатов, рассказывает кандидат физико-математических наук, старший научный сотрудник Государственного астрономического института им. П. К. Штернберга Московского государственного университета Сергей Попов.


    – Что такое гравитационные волны?

    – Начнем с аналогии. Представьте себе электрический заряд. Вокруг есть электрическое поле, но никакой волны нет. Если мы начнем ускорять заряд, поле будет «отрываться» – пойдет электро-магнитная волна. Она уже живет сама по себе. Примерно то же самое происходит с гравитационным полем. Вокруг массивного тела есть поле. Если мы начнем его двигать (например, если тело вращается вокруг другого объекта, как Земля вокруг Солнца), то опять-таки гравитационное поле будет «отрываться» – побежит гравитационная волна.

    Всё вокруг заполнено гравитационными волнами, поскольку их испускают почти все движущиеся объекты. Например, вы, помахав рукой, испустили их. Не испускает гравитационных волн только вращающаяся идеальная сфера или вращающийся симметрично сплюснутый шар. Но волны очень слабые, а потому зарегистрировать их сложно. Сколь-нибудь заметный эффект можно ожидать, лишь наблюдая процессы астрономического масштаба. Например, взрыв сверхновой приводит к всплеску гравитационных волн. Двойные системы испускают гравитационные вволны, когда звезды кружат вокруг общего центра масс. Наиболее мощные сигналы ожидают от слияния нейтронных звезд или черных дыр. В последнем случае основная доля энергии уносится именно гравволнами.

    – В ОТО гравитация связана с искривлением пространства. Гравитационные волны – это колебания пространства?

    – Поскольку Общая теория относительности – это геометрическая теория гравитации, то, в самом деле, можно говорить о гравволнах как о «волнах пространства-времени». По пространству-времени бежит возмущение. С точки зрения наблюдателя проходящая гравитационная волна выглядит как возмущение приливных сил.

    – Почти никто не сомневается, что гравитационные волны есть, но доказательства их существования, между тем, существуют только косвенные. Может ли то, что принято считать проявлением гравитационных волн, на самом деле оказаться совсем другим физическим явлением?

    – Самое яркое проявление «работы» гравволн – изменение параметров орбит двойных звезд. Наиболее очевиден эффект в случае двойных радиопульсаров, особенно, если это пара из двух нейтронных звезд. На мой взгляд (равно как и на взгляд подавляющего большинства физиков и астрономов), объяснить данные по таким радиопульсарам чем-то, кроме гравволн, нельзя. С другой стороны, пока прямой регистрации нет.

    – Почему так важно обнаружить гравитационные волны?

    – Во-первых, просто для того, чтобы подтвердить их существование. Это один из важных моментов в нашем понимании того, что такое гравитация и как она работает. Во-вторых, регистрируя сигнал от источников, мы можем получать уникальную информацию о них. Скажем, если мы регистрируем слияние двух нейтронных звезд, то мы можем получать уникальную информацию о строении этих объектов. А это уже не просто академически-астрономический интерес, а выход на квантовую хромодинамику, то есть на ядерную физику. Если же мы регистрируем слияния черных дыр, то мы получаем один из лучших способов показать, что черные дыры реально существуют. Очень большой прорыв станет возможен, когда будут обнаружены так называемые космологические или реликтовые гравитационные волны. Они должны быть связаны с самыми первыми мгновениями жизни Вселенной – со стадией инфляции. Это будет самая непосредственная информация о Большом взрыве.

    – Считается, что есть два основных подхода к созданию гравитационных детекторов (резонансные твердотельные детекторы и лазерный интерферометр). На каком принципе работают оба вида? Какой из них эффективнее?

    – В случае твердотельного детектора проходящая волна сжимает и растягивает «болванку». Растяжения совсем небольшие, поэтому заметить их сложно, особенно учитывая, что болванка и так испытывает колебания, просто потому что имеет ненулевую температуру. Чтобы «шум» не мешал работе приборов, в установке используется криогенная техника. Пока чувствительность таких установок недостаточно высока. Правда, есть интересные проекты, реализация которых может изменить ситуацию.

    Если же у нас есть интерферометр, то измеряется расстояние между зеркалами. В таких устройствах на нескольких сотнях метров или даже нескольких километрах друг от друга в трубе с низким давлением подвешены зеркала. Между ними бегает лазерный луч. У интерферометра два «плеча», образующие прямой угол. Гравволна, проходя, смещает зеркала друг относительно друга. Наблюдая интерференционную картинку, мы можем заметь ничтожные изменения расстояния между зеркалами.

    Сейчас чувствительность лазерных детекторов намного выше, чем у твердотельных детекторов, и с большой вероятностью в ближайшие лет пять можно рассчитывать на успех.

    – Крупнейший и один из самых интересных из готовящихся к запуску детекторов – LISA. Как он устроен?

    – LISA – космический проект. Немного упрощая, можно сказать, что гравитационный интерференционный детектор, как и многие другие, работают на длине волны порядка своего размера. Представим, что мы хотим «почувствовать» волну от слияния двух нейтронных звезд. Основной сигнал излучается, когда объекты почти касаются друг друга. Это соответствует масштабу километров в 20. Значит и детекторы должны быть километровыми, что мы и видим на примере LIGO, VIRGO, GEO600. А если мы хотим детектировать сигнал от сливающихся сверхмассивных черных дыр? Они имеют размер порядка астрономической единицы. Поэтому и детектор должен быть таким. На Земле ему места нет. Значит – в космос.

    Болванку длиной в десятки миллионов километров не сделать. Значит, делаем лазерный интерферометр. Три спутника образуют треугольник и между ними бегают лазерные лучи. Проходящая волна смещает спутники друг относительно друга, что сказывается на интерференционном сигнале.

    – Как вы считаете, действительно ли этот эксперимент увенчается успехом? Ведь замысел настолько сложный, что его осуществление кажется неправдоподобным.

    – Да, технологии там не то что сложные, но иногда просто еще не существующие. Собственно поэтому этот (и многие другие) научные эксперименты такие дорогие. Кстати, и «попутная выгода» от реализации многих научных программ связана именно с созданием новых технологий.

    Над проектом работают и американское (NASA), и европейское (ESA) космические агентства. Вероятность аварии или какого-то серьезного сбоя в космической технике всегда существует, тем более, когда речь идет не о сороковом запуске хорошо отлаженного агрегата, а о принципиально новом проекте. Но я думаю, что все будет хорошо. Вопрос может стоять только о выходе на плановую чувствительность.

    – Наземные детекторы работают уже давно. В чем их специфика? От какого из них можно ждать результатов в первую очередь? Вообще, не утопично ли надеяться «зафиксировать» гравитационные волны на Земле?

    – Было бы утопично – люди бы не вкладывали такие средства. LIGO и VIRGO разрабатывались так, чтобы после выхода на окончательную чувствительность зарегистрировать сигнал в течение года с высокой вероятностью. Но тут надо заметить, что прошедшие годы работы были на довольно низкой (хотя и плановой для соответствующего этапа) чувствительности. Если бы слияние нейтронных звезд произошло в относительно близкой галактике, то и LIGO, и VIRGO, и GEO600 зарегистрировали бы всплеск. Если бы в нашей Галактике взорвалась сверхновая, то, может быть, даже твердотельные детекторы дали бы результат (если взрыв сильно асимметричен). Но не повезло. А вот чувствительность advanced LIGO такова, что сигнал должен быть в течение года уже независимо от везения.

    –От чего зависит чувствительность этого детектора?

    – Чувствительность определяется тем, насколько маленькие изменения расстояний между парами зеркал мы можем заметить, а также способностью выделить «нужное» нам изменение на фоне случайных колебаний, то есть выделить сигнал на фоне шума, а сам шум подавить.

    – Как гравитационные детекторы могут использоваться? Можно ли сделать «гравитационный телескоп»?

    – Несколько детекторов вместе – и есть гравитационный телескоп. Собственно, уже две установки LIGO смогут определять направление на источник с достаточно хорошей точностью. Совсем недавно появилась новость, что LIGO-подобный детектор будет построен в Австралии. Что же касается «практической пользы», то их от гравитационных детекторов может быть несколько. Во-первых, это создание новых технологий. Конструкция установок потребовала разработать много новых технологий и материалов. Они связаны, например, с лазерными технологиями, с технологиями стабилизации зеркал и избавления от различных видов шумов (тепловой, сейсмический и т.д.)

    Во-вторых, как обычно, крупные научные проекты – это еще и школа по подготовке очень высококвалифицированных кадров: и исследователей, и инженеров. Наконец, хотя детекторы пока и не поймали гравволновой сигнал, они много что «слышат». В частности, сейсмический шум. Так что некоторые детекторы (например, твердотельные, которые вряд ли дадут астрофизический сигнал, если только не повезет очень сильно) дают полезную информацию о нашей планете.

    – Вы прогнозировали, что в 2015 году Нобелевскую вручат той группе ученых, которая зарегистрирует гравитационные волны. Сейчас конец 2010. Не изменился ли Ваш прогноз?

    – Все такие прогнозы – дело неблагодарное, и не надо к ним очень серьезно относиться. Advanced LIGO теперь по планам заработает в 2014 году. Так что прогноз немножко сдвигается J Поэтому сейчас я бы говорил о 2017-18 годах.

    – Гравитационные волны практически неуловимы. Допускаете ли вы, что они так и не будут обнаружены?

    – Если на чувствительности advanced LIGO сигнала не будет, то это будет большей сенсацией, чем регистрация сигнала. Поверить в такую возможность мне довольно трудно. С точки зрения астрофизики, мы достаточно много знаем о жизни компактных объектов, чтобы надежно говорить о темпе слияния нейтронных звезд и черных дыр. С точки зрения физики картина тоже довольно ясная. То есть ситуация гораздо более определенная чем, скажем, с бозонами Хиггса. Поэтому отсутствие сигнала будет большим сюрпризом, который должен привести к существенному пересмотру наших взглядов на устройство мира. Но вряд ли это произойдет.


    К оглавлению

    >

    Колумнисты

    id="own_0">

    Василий Щепетнёв: Дело для олигарха

    Василий Щепетнев

    Опубликовано 29 ноября 2010 года

    Любимое занятие человека слова — поучать человека дела. Наставлять, указывать, давать непрошенные советы. Как обрести богатство, как сохранить и приумножить его, особенно же — как им, богатством, распорядиться, на что потратить. Величайшие писатели не могут удержаться, хотя в душе, наверное, понимают: если деловой человек почувствует необходимость в совете, то спросить не постесняется, а если не спрашивает, значит, нужды нет. Сам Гоголь написал две книги рекомендаций и примеров для активных и предприимчивых людей.

    Первая, «Выбранные места из переписки с друзьями», которую автор считал «полезной людям, страждущим на разных поприщах», большинству известна более по яростной отповеди, данной Гоголю Белинским, хотя чтение «Переписки...» способно доставить человеку искушенному немало удивительных минут. Однако считать ее руководством к действию по созданию делового предприятия все же вряд ли стоит. Другую книгу позитивного мышления, второй том «Мертвых душ», Гоголь сжег еще в рукописи, и лишь по дошедшим до нас главам мы видим, как проницателен и как наивен был Николай Васильевич, всю жизнь живший Птицей Без Гнезда, представляя заботиться о себе завтрашнему дню.

    Но разве неудачная попытка одного писателя, пусть и гения, может остановить всех остальных?

    Когда я писал предыдущую колонку, мне понадобилось свериться с текстом «Ревизора». Традиционная, то есть бумажная, книга у меня, разумеется, есть, но для поиска и цитирования файлокнига несравненно удобнее. Запросил поисковик, он тут же вывел на нужный сайт, но сайт оказался жадиной и потребовал за скачивание денег. Я, понятно, тут же пошел в другое место, но подумал: э!

    Мысль, конечно, неглубокая, зато предельно краткая. А краткость, как известно, сестра таланта. Вечером, гуляя с Афочкой, я стал ее, мысль, развивать. И в свете звезд она раскрылась во всем величии: не пора ли явить русскоязычному миру Национальную Общедоступную Сетевую Библиотеку, библиотеку — эталон, библиотеку — очаг культуры? Электронные библиотеки в сети есть, но либо небольшие, либо не общедоступные, либо нелегальные. Идешь в нелегальную библиотеку, как на маевку в тринадцатом году: того и гляди, выскочат из-за кустов жандармы, повяжут и вышлют в Шушенское. Да и сервис покамест страдает, и вообще... любительства много, дилетантства. Новая Библиотека от существующих должна отличаться качественно — как крупный автозавод отличается от первых мастерских, где автомобили собирали поштучно на коленке.

    Во всяком случае, создание Национальной Общедоступной Сетевой Библиотеки отсюда, из Великой Гвазды, представляется делом важным и нужным.

    Кто бы помнил Павла Михайловича Третьякова, если бы не основанная им картинная галерея? А так фамилия вошла в историю если не навсегда, то, по крайней мере, на срок существование российской культуры. Национальная Сетевая Библиотека не менее перспективна. Какой шанс для олигарха! В нее будут обращаться миллионы. Хорошо, погорячился, не миллионы, а сотни тысяч — но постоянно. Годы и поколения.

    А деньги, где васюкинцам взять деньги на содержание библиотеки?

    Если энтузиасты создают и поддерживают библиотеки на свои относительно скромные средства (и мы знаем этих энтузиастов), то возможности олигарха несравненно глубже. К тому же олигархи так устроены, что умеют убыточное дело превратить в безубыточное, а бесприбыльное — в прибыльное. Следует учесть, что огромная часть литературы бесценна буквально, то есть является общественным достоянием. Ни автору, ни наследникам произведений части двадцатого века и всех веков предыдущих платить не нужно. Потратиться один раз на хорошую оцифровку, и — все. Навсегда.

    А современная литература, с ней как быть?

    Можно подождать, рано или поздно она тоже станет общественным достоянием. Или заключить договор с правообладателем, если тот не будет непомерно дорожиться. И ведь совсем необязательно, даже просто вредно запихивать в библиотеку все триста томов «Бешеного против Слепого». Напротив, отбор даст и библиотеке, и отобранной книге знак литературного качества. Кто будет проводить отбор? Эксперты, люди, много и с толком читающие, хотя бы и живущие в отдалении от столиц, где-нибудь в Гвазде (опустив очи долу, ковыряю носком сапога кучу опавшей листвы)...

    В любом случае, препятствий для бесплатной книговыдачи отечественной и зарубежной классики нет. Классику же люди читают со школьных лет. Значит, со школьных лет и выработается привычка заглядывать в библиотеку Имярека. В отличие от курения посещение библиотеки есть привычка полезная, продляющая жизнь: утверждают, что риск болезни Альцгеймера для книгочеев меньше. А если бесплатную библиотеку связать с программной или железной читалкой, тут и прибыль. Впрочем, не мне учить деловых людей, как создавать прибыль.

    Я сказал, а вы, олигархи, решайте, и решайте спешно! Вас много, а библиотека нужна одна!

    С другой стороны, идей у меня много...


    К оглавлению

    id="own_1">

    Кафедра Ваннаха: Роботы-убийцы или датские деньги?

    Ваннах Михаил

    Опубликовано 30 ноября 2010 года

    Как любит говаривать знакомая редактор официоза потенциальным рекламодателям и просто пойманным в коридорах власти бизнесменам — читайте государственную прессу! И трудно с ней не согласиться. Ну, вот очередной слив от ВикиУтечки — мы от него ждали кровопролития, а там всего лишь съедение чижика. Россия, наша дисциплинированная и законопослушная Россия, приравнивается послами заморскими к бандитским государствам, а известный и популярный местный политик обзывается ими же — собакой. Правда, собакой не простой, а «alpha dog». Но даже если бы и простой, все равно, друг человека, не какой либо киплинговский «Footless, yellow earth-worm»…

    А вот на официальном сайте нашего Минобороны сведения поинтересней будут. Лежит там проект документа под скучнейшим названием — "О внесении изменений в Положение о порядке прохождения военной службы, утвержденное Указом Президента Российской Федерации от 16 сентября 1999 г. № 1237".

    И, согласно проекту этому, буде его примут, станет возможной в Вооруженных Силах служба, на должностях солдат, матросов, сержантов и старшин, иностранных граждан. По контрактам, заключаемым на пяток лет, с наделением их после трех лет российским гражданством. Вообще то, что такой проект появился, ничего удивительного нет. Ещё один приветик от лихих реформаторов девяностых. Когда была сломана финансовая система государства, населению стало не до размножения. А соотнесите призывной возраст с датами давних уже реформ — вот и всё… (Читателям, не верящим, что у государства были средства не допускать обвала рубля, предложим соотнести денежную массу с 1991 года хотя бы с мобзапасами предприятий, обеспечивающих 6-9 месячную работу в три смены по выпуску военной продукции, и оценить эти запасы, титан, медь, алюминий, по ценам LME…) Так что, в условиях, когда призыва всей наличной молодежи не хватает для комплектации солдатских должностей, подобный Указ был запрограммирован появиться.

    Аналогичные процессы, кстати, не у нас одних. Вот и в находящихся на вершине планетарной пищевой пирамиды США, рассуждают о найме в армию иностранцев, и иммигрантов, более-менее законно проживающих в США, и тех, кто завербуется за рубежом. И это в условиях, когда в Армии служит лишь один гражданин Америки из 600!

    Иностранцев нанимали и ранее. В Гражданской войне в США на стороне северян сражались Скандинавский полк и Немецкая дивизия, где никто не говорил по-английски. Но это были иммигранты, и находились они в стране иммигрантов, с которой связали свою судьбу. А вот Англия в эпоху наполеоновских войн использовала иностранцев с разбором. Одним из её самых блистательных сухопутных соединений был Германский королевский легион, славящийся мужеством, дисциплиной и выучкой (аж пять залпов в минуту из дульнозарядных мушкетов). Но находиться этим войскам на территории Британии было запрещено — и это, когда английский король был еще и сюзереном Ганновера.

    Дело в том, что классическая демократия всегда опиралась на граждан, имеющих право и обязанность носить оружие. Так было в свободных городах средневековой Европы. Так было в полисах Эллады. Так было в Риме до реформ Мария, освободивших граждан от обязательной службы в легионах, — центурии были и политическими структурами и тактическими подразделениями. А когда служба кончается — кончается и демократия. В Риме Сулла-Счастливчик сообразил, что наемные легионы лояльны не абстрактным Сенату и Народу, а конкретному полевому командиру, наделяющему их трофеями, и что легионы эти прекрасно и рентабельно можно использовать и против жителей Города. (Важную роль в этом процессе играли проскрипционные списки, ­- и тут информационные технологии! — согласно которым богатеньких резали, раздавая их барахлишко верным и преданным.) А дальше история Рима полна прецедентов, когда набившие руку на его же службе воины, употребляют свои навыки против былых работодателей — от Арминия, разгромившего легионы Вара в Тевтобургском лесу, до гуннов… Да и Византии, которую у нас сейчас любят поминать, использование и русско-варяжских сотрудников тамошней ФСО, и конников-степняков в порубежье, ничего хорошего не принесло!

    Но уменьшение призывных контингентов, отсутствие возможности укомплектовать войска это общий тренд. Он обусловлен укладом городской жизни и сутью рыночной экономики. В селе ребенок рентабелен — он тут же включается в пастьбу гусей, сбор колосков… А в товарной экономике это источник длительных расходов. Долгие рост и взросление человеческих существ, сделавшие возможным технологическую цивилизацию, обуславливают заметные суммы денег и времени, которые для этого надо истратить. Поэтому собственно городское население размножается по совсем иным законам, нежели сельское. И именно это, в конце концов, приводит на улицы накопивших богатство городов жадных варваров. Сначала в роли наемников, а уж потом — как получится…

    Безопасность — это то, в чём надо полагаться только на себя самого. Как только ты начинаешь платить за неё другим, ты становишься для них дойной коровкой, обречённым на убой скотом — у того же Киплинга об этом стихотворении "Датские деньги".

    Но законы городской демографии отнимают такую возможность. Как же быть? Выход может дать только технология.

    Ну, по большому счету, Россия (если только не станет жертвой предательства) войну проиграть не может с начала 60-х годов ХХ века, когда была (в уменьшенном варианте) испытана стомегатонная бомба, способная стереть с лица земли любого супостата. Но у ядерного оружия невысокая селективность (особенно если использовать его в кобальтовой рубашке). Для тех войн, что вела Россия начиная с конфликта на Даманском, оно мало подходит. Но и унаследованное практически от Второй мировой оружие, которым была выиграна Кампания за Рокским тоннелем (забавно, согласно WikiLeaks янки прекрасно знали, кто на кого напал…) для таких войн подходит не лучше.

    Выход кроется, вероятно, в развитии военной робототехники. Еще в 1930-е годы у нас велись разработки в этой сфере. В финской войне применялись (правда, безуспешно) радиоуправляемые танки. Но тогда был крайне низок уровень доступных технологий — вакуумные лампы, электромеханические реле, коллекторные двигатели да сельсины… Однако идея боевых роботов носилась в воздухе. В детском «Пылающем острове» Казанцева фигурировали (наряду с электромагнитными пушками) и телеуправляемые истребители. И в большой литературе танки-роботы появились в «Дороге на Океан» Леонида Леонова. (Недавно американцы демонстрировали робота, способного питаться древесиной — так такой танк-робот, выламывающий в домах половицы и балки, фигурировал у Леонова.)

    А сейчас доступны качественно иные технологии. Зайдите в любой магазин гаджетов — ползуны, прыгуны, вертолетики, с инфракрасным, с радиоволновым управлением. Стоящие гроши беспроводные видеокамеры. Игрушки обгоняют оборонную отрасль. Нынешние технологии позволяют создать и датчики, и средства обработки информации, и исполнительные системы. Вопрос в конструкторских решениях и в финансировании. В том, куда пойдут казенные деньги, на подкуп варваров, или на технологические разработки. Именно он и определит участь нынешней цивилизации!


    К оглавлению

    id="own_2">

    Василий Щепетнёв: Человек в пикейном жилете

    Василий Щепетнев

    Опубликовано 01 декабря 2010 года

    Интересоваться политикой смешно и несовременно. Это зафиксировали Ильф и Петров, показав, как глупы, нелепы и бестолковы обломки дореволюционного коммерческого Черноморска (сиречь Одессы) — маклеры, хлебные агенты, комиссионеры и прочая шушера. Ходят и твердят, что Бернсторф — голова, Сноуден — голова, и, что всего забавнее, Бриан со своим проектом объединенной Европы — тоже голова. Даже то, как одеваются любители поговорить о политике, указывает на их инородность: белые пикейные жилеты, пасхальные брюки, шляпы «канотье», галстуки и непременные воротнички. А вокруг люди носят однообразные толстовки, полотняные сиротские штанишки и брезентовые тапочки, которые для красоты натирают зубным порошком. Скромно одеваются — чтобы не сказать бедно. Скромно и единообразно, стоит натянуть на лицо маску противогаза — и человек неразличим в толпе. Да и как им одеваться, если «штанов нет»? Зато все полны истинного или показного энтузиазма, все рвутся выполнять указания и распоряжение начальства, которого пока еще много, но уже крепнет понимание, что головой в этом мире является только один человек, все же остальные годятся лишь на то, чтобы претворять его решения в жизнь. В реальном мире говорить о политике — все равно, что курить в пороховом погребе, маленьком таком погребе на одну бочечку. Ляпнешь что-нибудь несозвучное — и взрыв бросит на Соловки, жену в другую сторону, детей в детдом. Конечно, начало тридцатых считается вегетарианским временем, но и в начале тридцатых Скумбриевичу за то, что до революции он был сыном в фирме «Скумбриевич и сын», обеспечивается первая категория. Впрочем, первая категория в те годы обозначает лишь утрату прав на пособия, пенсию, работу и квартиру. Живи где хочешь, как хочешь и чем хочешь, Скумбриевич ты сын.

    И вот в подобное время находятся люди, которые рассуждают о политике! Сведения о ней они черпают из газеты «Правда». Как у них получается распознавать в скупых заметках признаки того, что Бриан — голова и Бенеш тоже голова?

    Загадка. Но — получается. Вероятно, помогают старые навыки анализа ситуации, без таковых на хлебной бирже делать нечего. Самостоятельное толкование политики уже политика, и подобное терпеть власть не желает. Долой пикейные жилеты! Вся мощь агитпропа создает иной, полезный государству образ заграницы, где, понятно, никаких светлых голов не бывает, все капиталисты глупые и жадные, все рабочие, кроме пары-тройки прикормленных провокаторов, за советскую власть, а все негры — за советскую власть в квадрате (политкорректностью еще не пахнет, и потому негра так и называют негром, а не афроевропейцем или афроамериканцем, и спелчекер не ругается на слово «негр»). Нам так часто говорят, что в Америке линчуют негров, и при этом так многозначительно смотрят на нас, что закрадывается подозрение — а вдруг мы и есть негры, спасенные от линчевания?

    Мой любимый с раннего детства, годков с пяти, жанр — фантастика. В конце пятидесятых — начале шестидесятых годов двадцатого века выходят романы, в которых мы и американцы покоряем космос. С ходу вспоминаются «Желтое облако» Ванюшина, «Шестой океан» Гомолко, «Двести двадцать дней на звездолете» Мартынова. Сюжет — словно под копирку: космическая гонка, наши летят на отличных, надежных кораблях, американцы же на плохоньких и ненадежных, потому терпят крушение за крушением. Само собой, советские космонавты спасают американцев, но коварные и подлые американцы пытаются убить своих спасателей. Вот такая фантастика. Ух, как я этих американцев не любил! А за что их любить, жующих резину, пьющих тошнотворную кока-колу и под поросячьи визги танцующих свинг остолопов. Хорошо еще, что тогда не писали о свингерах!

    Что ни говори, в прессе, на радио и телевидении работают мастера. Виртуальная Америка, возглавляющая виртуальную капиталистическую цивилизацию, и до сих пор оставалась бы гнездом подлости, разврата и всех остальных пороков, если бы не случайности, первая из которых — способность коротких волн залетать за государственную границу. Ну, и пикейные жилеты поспособствовали. Проникли на телевидение, воспользовавшись послаблениями гласности. Сейчас их, могикан, там осталось мало. Не сколько из-за политической обстановки, просто от пикейного жилета прибыли чуть. А телевидение — это бизнес сферы обслуживания. Зарабатывай, или умри. На Бриане, Бенеше или Чемберлене много не заработаешь, а обслуживать отечественных клиентов им не доверяют. Ляпнут еще, что не головы они, а совсем иные части тела, что тогда?

    И все-таки: какова потребность человека обыкновенного в пикейном жилете? Насколько востребован жанр внешнеполитического обозрения, ушел ли он в прошлое навсегда или просто зарылся в землю и окуклился в ожидании теплой весны?

    Вот и скандальные сведения опубликованы, но в нашей стороне тишь да гладь, лишь газ иногда булькнет, пробиваясь на поверхность густой жижи, и только. Кому они интересны, политические скандалы, кроме их непосредственных участников? Другое дело, если Продюсер П разъезжается с актрисой А, а Бесподобная Б отбивает жениха у Влиятельной В — тут первые полосы российской общедоступной прессы обеспечены.

    Но...

    Но пригреет солнышко, из куколки-колыбельки на поверхность земли выберется жук, поднимет надкрылья, зажужжит и отправится в полет к столовой номер шестьдесят восемь, где некогда помещалось прославленное кафе «Флорида».

    Так что самое время в преддверии сезона сдать пикейные жилеты, шляпы панамской соломы и воротнички в химчистку.

    Зимой — скидки.


    К оглавлению

    id="own_3">

    Василий Щепетнёв: Принцип одной запятой

    Василий Щепетнев

    Опубликовано 02 декабря 2010 года

    Как всякий самоучка, я обречен изобретать велосипеды. Плохого в том ничего нет, однако ж порой досадно: как много усилий затрачивается там, где нужны заемные знания. И потому в поисках этих знаний перелопачиваются горы всякого, и в процессе чего только не находишь! Каждый текст я читаю, как сапер: нет ли в нем этакого проводочка, идущего к мине? Неровен час, заденешь, что тогда? А порой вместо мины находишь клад, кубышку, набитую николаевскими империалами – и радуешься, радуешься, радуешься... Может, у других этих империалов, как грязи, но я-то не другой.

    Вот и вызвавшее неоднозначную реакцию интервью главы «ЛитРеса» Сергея Анурьева помогло мне сформулировать принцип, о существовании которого я, безусловно, догадывался, но которым столь же безусловно пренебрегал. Анурьев прямо и без обиняков говорит: хотите, чтобы вас читали, пишите проще. Массы и высокое искусство чужды друг другу. Массовый читатель не захочет разбираться в сложном тексте, если рядом будет лежать текст простой. Не культивировать сложное следует, а вырывать с корнем – если ставится цель быстро и надежно овладеть читательскими массами.

    С другими утверждениями Анурьева можно поспорить. Так, сцена, в которой пират-библиотекарть отбирает у девушек кошельки, а библиотекарь-правообладатель его струнит и отговаривает, мне представляется иначе: «Слышь, братан, на этой улице кошельки отбираю только я, понял?» И вообще, я бы робингудского библиотекаря (мне кажется, «пират» не отражает ситуацию) сравнил со свиньей, подрывающей корни дуба. Так и слышу отповедь свиньи: «Покамест мы, хрюшки, ели желуди и рылись под деревьями, дубравы зеленели и множились. Когда же пришли вы, цивилизованные люди, дубы исчезли».

    Но это так, размышления у парадного подъезда, которые годятся лишь для времяпрепровождения. А вот лозунг «Пиши проще!» я бы приклеил на монитор каждому литератору. Прежде всего – на свой монитор, конечно.

    Но как писать проще? Это, наверное, очень трудно. Нельзя ли научиться поскорее и без особого труда?

    Я думал, думал и придумал «Принцип Одной Запятой». Теперь, руководствуясь им, каждый может писать ясно и доступно. Вот его полная формулировка: «В произведении, предназначенном для массового читателя, на одно предложение должно приходиться не более одного знака препинания».

    Только и всего.

    Осталось применить «Принцип...» на практике.

    Итак:

    Жили-были два артиста. Они были мастерами смеха. Веселили людей в рамках дозволенного. А люди жили преимущественно в подвалах – в смысле культуры. Квартира могла быть и на девятом этаже, а культура подвальная. Не у всех, но у многих. И власть наказывала артистам вытягивать людей до уровня первого этажа. Или даже второго. Специальные худсоветы следили, чтобы тексты звали к возвышенному. Ниже пояса – ни-ни.

    Но вот власть сменила обличие и следить за артистами перестала. Смешите, как хотите. Не до вас. Тут за нефтью бы уследить, за газом. Денежные потоки направлять в нужную сторону важнее, чем поднимать культурный уровень.

    Первый артист взял, да и рванул в стратосферу. Пусть тянутся за мной, культура и возрастет. Но люди голову задирать не стали. У-хо-ди, скандировали они на концертах. Ну и черт с вами, подумал первый артист. И ушел.

    А второй решил иначе. Людей нужно жалеть. Вот смотрят они в окошечки из подвалов, и что видят? Только ноги, сапоги, туфли, валенки. Да еще сор и грязь. Разве это хорошо? Они должны видеть не мои ноги, а мое лицо! И артист сначала наклонился, а потом и вовсе стал на четвереньки. Теперь он целиком помещался в подвальном окошке, заслоняя собой неурядицы жизни. И куда бы подвальный человек не смотрел, он всюду видел веселого артиста. И вместе с ним смеялся и радовался жизни. Сам-то он в подвале и сидел вольно, и стоял во весь рост. Почему не смеяться? Артист же привык. В стоящего на четвереньках и молния не ударит, и пуля выше пролетит. А еда ближе. Лицо стало круглым, глазки маленькими. Говорят, что у артиста и хвостик вырос. Но эти слухи распускают завистники. Ни гроша за душой, потому и злятся.

    Как рассказик, удался?

    Я тут роман новый пишу, хорошо, дальше пятой главы не ушел. Меньше переделывать. Теперь буду писать с учетом Принципа Одной Запятой.

    Держитесь, массы!


    К оглавлению

    id="own_4">

    Кафедра Ваннаха: Забытое немецкое слово

    Ваннах Михаил

    Опубликовано 03 декабря 2010 года

    В богословии есть такой прием, апофатика, когда описание дается от противного, от тех свойств, которых нет. Бессмертия, безграничности... Так и в повседневной жизни многое становится яснее со стороны. Вот обычная водопроводная арматура — это редкий случай, когда у нас в инженерном деле применяется дюймовая система.

    Дело тут в древности технологии — первый отечественный водопровод в Первопрестольной инженер-генерал Бауер начал строить в 1779 году (завершена система, подававшая воду из Мытищенских ключей, в 1805 году), а в Северной Пальмире централизованным водоснабжением занялись в 1859 году.

    Ну а в остальной промышленности — царство метрической системы. И это не столько свидетельство любви большевиков к системе мер Французской революции, сколько память о промышленных связях России и Германии. Русские издания справочников Huette, немецких технических справочников, впервые переведенных аж в 1863-м году, и вышедшем пятнадцатью, а первый том — даже шестнадцатью изданиями.

    Германское оборудование, поставлявшееся перед Первой и перед Второй мировыми войнами. Такое же, но взятое в качестве трофеев и трудившееся, как минимум, до конца 1980-х. Давнее сотрудничество артиллерийского ведомства Российской империи с фирмой Круппа, и сотрудничество большевиков с немецкими специалистами в той же отрасли (в своих мемуарах «Оружие победы» выдающийся конструктор артсистем Грабин рассказал, как боролся за место под солнцем с германскими коллегами в стенах КБ, прежде чем померяться силенками на поле боя).

    И немецкие слова приходили в русский язык. И было среди них забытое ныне слово «гелертер». Второй том Первого издания Малой Советской Энциклопедии считал нужным объяснить «рабочему активу, интеллектуальной и политической верхушке рабочей массы», — именно на них ориентировалось издание — что гелертер, это «ученый в иронич. смысле, замкнутый или ограниченный».

    Толкование такое пришло из немецкого же, а там оно появилось, похоже, из новеллы писателя-романтика Людвига Тика «Der Gelehrte», о гимназическом профессоре. Ну а вообще-то «дер Гелерте» это именно ученый, тот, кто учился, получая знания из вторичных источников. Из уроков педагогов, из лекций профессоров, из книг. Тот, кто не брел по джунглям, в поисках нового цветка или минерала, не выпытывал в лаборатории тайн у природы как Естествоиспытатель-Naturforscher. Того, кто не поднялся над горами фактов, к высям теорий, как знаток (ведун?)-Wissenschaftler.

    И вот создается впечатление, что современный мир информационных технологий приготовил «экологическую нишу» для возвращения гелертера, причем в хорошем смысле слова. Плодотворно работающего с полученной из вторичных источников информацией.

    Ну вот на какие специализации традиционно делятся нынешние научники? (Научник — слово в высшей степени загадочное, оно обозначает ученого на сербскохорватском, появилось у Стругацких в «Стажерах», и как-то прижилось в постперестроечной России, и даже не в знак приязни к сербам, в названии известного сайта оно записано латиницей, по-хорватску...)

    На экспериментаторов и на теоретиков. (Нет, есть еще администраторы, есть специалисты по связям с общественностью, и т.д.) Одни добывают факты, другие — их обобщают. Те и другие относятся к представителям противоположной фратрии с некоторой иронией. Но деление довольно устойчивое — вспомним «эффект Паули», названый в честь великого теоретика, при визите которого в лабораторию там непременно что-либо ломалось... Но сейчас, похоже, появилась возможность извлекать факты не из привычной природы, а из Вселенной информации, вторичной по своей сути.

    Ну вот если вы, уважаемые читатели, знакомитесь с этим текстом, то не очень далеко от вас окошечко с контекстной рекламой. И текст там может вполне даже оказаться вам полезным. Взглянешь в окно на морозный снег, подумаешь, что Патрикевна отрастила добротный мех, а «единичка» кончилась — так окошечко предлагает сравнение цен патронов с дробью диаметром 4 мм 12 калибра от разных производителей и в разных лавках.

    Дело в том, что система добычи данных (data mining) запомнила прошлые задания, выданные поисковику; обработала их, вычислив корреляты, и любезно выдала их потенциальному клиенту. Нет, нас с вами она не любит. Но зато ей очень нравятся наши деньги...

    Так вот, представляется вполне вероятным, что и ученый вполне может сегодня извлечь массу полезных фактов из залежей данных. В шестидесятые годы прошлого века, когда науки росли экспоненциально, а информационные технологии находились еще на начальном, пологом участке экспоненты, высказывалось, правда больше в шутку, предположение, что скоро будет проще выполнить исследование по новой, нежели отыскать данные о таком же, но выполненном в прошлом кем-либо другим.

    Вселенная интернета ситуацию изменила в корне. Любые данные доступны практически мгновенно (несмотря на существенный лаг между многими рецензируемыми журналами и их электронными отображениями). То есть когда ты знаешь, что тебе нужно найти — ты это, скорее всего, найдешь.

    Проблем тут нет, хотя в коллективах обычно выделяются те, у кого навыки сетевого поиска развиты в наибольшей степени. Но посмотрим на проблему шире. Вселенная Природы отображается на Вселенную Сети. Отображается с каждым экспериментом, с каждым фактом. Факты эти и экспериментальные данные в Сети упорядочены.

    Упорядочены по более-менее акцидентальным признакам. Латинское accidentis обозначает случайный признак, привходящее обстоятельство. Случайным не в том смысле, в каком работает датчик случайных чисел; когда стохастическое противопоставляется детерминированными. Случайным в том смысле, что по большому счету для картины мироздания не имеет значения, кто и когда замерил гравитационную постоянную, но для истории науки и для мотивации ученых такие данные являются основополагающие.

    И столь же случайно, столь же произвольно деление научных фактов между дисциплинами. Не зря же Ричард Фейнман начинал свои знаменитые «Лекции...» с рассказа о том, по ведомствам скольких наукам проходит обычный бокал вина, и сколь легко и приятно эти учено-бюрократические деления забываются после опустошения этого бокала...

    Так вот, проявив из-за любви к знаниям хоть небольшую часть тех навыков добычи данных, которые проявляют из-за любви к наживе коммерческие системы контекстной рекламы, ученый может обнаруживать те, уже добытые Человечеством в целом и Наукой в целом, факты, — и главное, связи между ними, — о которых конкретный ученый и конкретные лаборатория, научная школа, дисциплина, отрасль (...) не имеют ни малейшего представления.

    Причем расходы на такие деяния могут оказаться куда меньше затрат на классические эксперименты — стоимость процессорных мощностей, массовой памяти и каналов связи неуклонно снижаются, а в бесплатном доступе оказывается все больше и больше данных. (Хотя борцы за светлое дело Копиразма неуклонно делают свое дело...)

    Правда, какой термин приживется для обозначения таких занятий, предугадать невозможно — вспомним смутной этимологии слово «научник». Но чем больше данных отобразит мировая наука на Сеть — тем больше будет поле деятельности для поиска фактов в ней.


    К оглавлению

    id="own_5">

    Анатолий Вассерман: Сенсорные интерфейсы

    Анатолий Вассерман

    Опубликовано 03 декабря 2010 года

    http://www.youtube.com/watch?v=41BEZffOoOw?fs=1


    К оглавлению

    >

    Голубятня-Онлайн

    id="sgolub_0">

    Голубятня: Сидр № 9

    Сергей Голубицкий

    Опубликовано 01 декабря 2010 года

    Читатели помнят о заветном иллюминаторе, который новообращенцы в Надкусанову веру предпочитают постоянно держать открытым, хотя бы на первых порах: о виртуальных машинах. И пусть сфера применения этих «ностальгичных призраков прошлого» весьма и весьма ограничена (ну нет ничего такого в жизни рядового пользователя, чего бы можно было делать в Форточках, и нельзя — в Надкусане!), держимся мы за эти призраки обеими руками, не желая разрывать на уровне подсознания последние связующие нити с прошлым.

    Я уже писал о выборе виртуальной машины и о своем имховом победителе — Parallels Desktop. «Параллели» приглянулись больше VMWare, вопреки законодательному статусу последнего в корпоративной епархии. Но вот незадача: «Параллели», хоть и были явно шустрее конкурентов, но все равно в моем представлении ползали. Хуже же самого ползанья было то обстоятельство, что чем больше виртуальная машина висела в открытом состоянии, тем сильнее тормозила вся система, причем ни о какой утечке памяти речи не было: все программы стабильно откусывали свою вполне себе пристойную толику памяти, однако ОС через час-другой принимался энергично свопировать на диск и — как следствие — переходил с аллюра на непристойный черепаший променад.

    Все это, впрочем, я уже описывал в сентябрьском «Параллельном Сидре», в котором делился решением, найденным замечательным программным архитектором компании Максимом Кузькиным. Тогда виновником тормозов был признан Spotlight — встроенная в Mac OS X поисковая утилита, которая после переиндексации вернула на какое-то время к жизни виртуальную машину Parallels.

    Увы, счастье длилось недолго: через неделю-другую все опять стало ползать и не спас даже новый — шестой — релиз программы. Дошло до того, что я плюнул на комфорт и извлек из чулана старуху Вайю, на которой принялся гонять единственную программу, которая удерживала меня в старом — форточном — мире. Вернее, не программу даже, а идиотский банковский клиент «Райффайзена», написанный на ActiveX!

    Перелом случился на прошлой неделе, когда маркетолог Parallels Евгений Купраш прислал мне исчерпывающую инструкцию, которая не просто сотворила чудо, но добилась результата самым парадоксальным образом. Спешу поделиться с читателями информацией, способной за несколько кликов мыши вдохнуть в их виртуальную машину легкое дыхание молодости. Итак:

    Введение

    По умолчанию в Parallels Desktop для Mac выставлены настройки, которые являются оптимальными для среднестатистического пользователя. Но в России Маки используются главным образом продвинутыми юзерами, у которых к платформе виртуализации вполне конкретные требования — быстродействие и (если речь идет о портативных компьютерах Apple) длительное время работы от батареи. Возможности PD6 позволяют настроить виртуальную машину и так, и эдак. Часть трюков, о которых будет рассказано ниже, известна только опытным маководам, которые используют приложение от Parallels на протяжении нескольких лет. Итак, куда нужно нажать, чтобы гостевая Windows работала быстрее?

    Tweak #1. Задаем оптимальный объем RAM для гостевой ОС и ее приложений

    Четырех гигабайт RAM, которыми, как правило, комплектуются современные компьютеры Mac, хватает, чтобы две операционные системы (Mac OS и Windows) работали достаточно быстро. По умолчанию в Parallels Desktop для гостевой операционки отведен 1 Гб оперативной памяти. Как ни странно, гигабайта может быть даже слишком много, если вы регулярно запускаете, например, не слишком требовательные MS Office, Internet Explorer и «Блокнот». Перебор с количеством памяти для виртуальной машины грозит «тормозами» хоста: вы отберете необходимые ресурсы у Mac OS, из-за чего она вынуждена будет использовать файл подкачки.

    В идеале нужно выяснить, сколько оперативной памяти потребляет виртуальная Windows вместе с запущенными под ней нужными вам приложениями, и назначить соответствующее значение в настройках Parallels Desktop. Алгоритм выглядит так:

    1. Запускаем Windows в Parallels Desktop на Маке.

    2. Ждем, пока гостевая ОС полностью загрузится.

    3. Запускаем нужные приложения. В нашем случае — это Internet Explorer с тремя достаточно «тяжелыми» сайтами, Paint и «Блокнот». Для того, чтобы снятые потом показания использования RAM были максимально объективными, работаем с приложениями некоторое время в своем обычном режиме.

    4. Открываем Диспетчер задач Windows. В XP количество потребляемой системой и ее приложениями оперативной памяти (вместе с программами с автозапуском, типа антивируса) указано в правом нижнем углу Диспетчера (см. рис. ниже). В Windows 7 аналогичные показатели можно снять через Монитор ресурсов (resmon.exe), во вкладке Память. Именно это значение (+10% на всякий случай) и нужно будет использовать для установки оперативной памяти для виртуальной машины.


    5. Выключаем виртуальную машину через Parallels Desktop. Затем: Виртуальная машина => Настроить. Во вкладке Общие выставляем требуемое значение с небольшим запасом.


    Обратите внимание: по сравнению с дефолтными настройками количество RAM снизилось в три раза. Сэкономленный объем быстрой (в отличие от HDD) памяти останется у Mac OS.

    Tweak #2. Использование Suspend/Resume

    При прекращении работы с приложениями в гостевой ОС пользователь закрывает свои программы в ней и останавливает виртуальную машину. Когда гостевые приложения снова нужны, процесс повторяется в обратном порядке. Все это отнимает кучу времени, которое легко экономится использованием функций Suspend/Resume. Это одна из самых любимых продвинутыми юзерами «фишек» Parallels Desktop.

    Вместо того, чтобы «заглушить» виртуальную машину, выберите Приостановить.


    Гостевая ОС может «суспендиться» вместе с открытыми в ней приложениями — в нашем случае с тем же Internet Explorer. Это удобно, когда нужно быстро возобновить работу виртуальной машины и запущенного в ней софта. Запускаем PD, выбираем Windows и в меню Виртуальная машина нажимаем Возобновить. «Гость» выводится из спячки буквально за секунды вместе с теми приложениями, с которыми вы его «засуспендили». Обратите внимание: виден открытый Internet Explorer.


    Состояние памяти, состояние внутренних устройств виртуального компьютера сохраняется на жестком диске в виде файла. Этот файл потом «поднимается» средствами PD. При использовании Suspend/Resume вместо одной-двух минут ожидания загрузки Windows и ее приложений на все про все уходит от силы секунд десять. Экономия времени колоссальная.

    Tweak #3. Выигрываем 1,5-2 часа работы от батареи

    Этот трюк хорош для обладателей портативных компьютеров Apple MacBook и Apple MacBook Pro, в которых есть два видеоадаптера — интегрированный и дискретный. Графический чип в портативных Маках — один из самых прожорливых компонентов, поэтому если ваша цель — максимальная автономность и длительное время работы компьютера от батареи, лучше не допускать включения 3D-акселератора. Популярная нынче ОС Windows 7 по умолчанию использует интерфейс Aero. Все эти тени, полупрозрачные элементы управления и парящие окна отрисовываются с помощью DirectX и нагружают графическую подсистему. Хотя выглядит Aero симпатично, на качество работы в Windows оно не особо влияет, а время автономной работы сокращает значительно. Тут надо объяснить, что Parallels Desktop перекладывает любой трехмерный эффект, созданный средствами DirectX (который не поддерживается на стороне Mac OS), в OpenGL. В процессе нагружается и видеокарта хост-компьютера, и оперативная память, что ведет к ненужному расходу заряда батареи.

    Важно! Известно, что портативные компьютеры Mac переключаются «на лету» с интегрированной графики на дискретную сразу же, как в том возникает необходимость. Переключаться обратно (с дискретной на интегрированную) они не умеют. Поэтому, если система хотя бы один раз за сеанс работы использовала отдельный 3D-акселератор, он останется включенным до первой перезагрузки.

    Для настройки PD на экономичный режим работы следует сделать вот что:

    1. Открываем Parallels Desktop.

    2. Меню Виртуальная машина => Настроить. Во вкладке Оборудование выбрать пункт Видео и снять галочку с чекбокса Включить 3D-ускорение.


    Готово. Впрочем, мы отключили 3D-эффекты, но пока не уменьшили количество видеопамяти, отведенной для виртуальной машины: сохранилось ее значение по умолчанию — в нашем случае это 256 Мб. Поскольку такой огромный объем для двухмерной графики просто не нужен, имеет смысл отдать «лишнюю» память хосту. Для отрисовки простого (без Aero) интерфейса Windows 7 и уж тем более Windows XP хватит и 32 Мб. Меняем этот параметр, как показано на скриншоте:


    Эти действия помогут выиграть 1,5-2 часа времени работы от батарейки. Проверено на собственном опыте. Правда, запускать при таких настройках что-то «тяжелое» уже не получится. Но для приложений, использующих 3D, есть специальные настройки (см. твик №5).

    Tweak #4. Настраиваем дисковую подсистему виртуальной машины для лучшего быстродействия

    Гостевая OC на Маке, как правило, используется для работы с рядом вполне конкретных приложений — все остальные задачи успешно решаются средствами Mac OS. В связи с этим Windows может обойтись весьма скромным объемом памяти на жестком диске. По умолчанию в PD «гостю» отданы 64 Гб, но если вы не собираетесь ставить на Windows много софта, этот объем можно смело сократить вдвое. Делается это так:

    1.Запускам PD.

    2.Щелкаем в окне выбора ОС по Windows.

    3.Пункт меню Виртуальная машина => Настроить => Оборудование => Жесткий диск => Расширяемый диск => Редактировать. Выставляем 32 Гб и убираем галочку из чекбокса Расширяемый диск и нажимаем Применить.


    Этот маневр позволит избежать в будущем фрагментации образа диска виртуальной машины по всему HDD вашего компьютера, и за счет этого гарантировать хорошую производительность дисковой подсистемы в «госте» на все время жизни Мака. Если впоследствии вам понадобится увеличить размеры диска для виртуальной машины, это всегда можно сделать через настройки здесь же.

    Tweak #5. Настраиваем PD6 для игр

    Parallels Desktop можно настроить так, чтобы гостевая Windows показывала в играх максимальное быстродействие. Процессоры относительно свежих Маков имеют по нескольку ядер. Если вы собираетесь поиграть в виртуальной машине, вам нужно переключить все имеющиеся ядра на поддержку гостевой ОС. Делается это так:

    1. Запускаем PD.

    2. Выбираем Windows.

    3. Из меню Виртуальная машина => Настроить => вкладка Общие => Процессоры


    Вы можете задействовать для игр то количество процессоров, которое посчитаете нужным. Наибольший эффект от этой опции получится в относительно свежих играх, которые поддерживают многопоточность — например, Far Cry 2 и Mass Effect 2.

    * * *

    Как видите: парадокс заключался в том, что для ускорения работы Parallels нужно было ограничить размер выделяемой под виртуальную работу Windows памяти, а не увеличивать ее! Такое даже в голову не приходило! Я исправно тестировал 1 гигабайт, полтора, два и даже два с половиной — и все с плачевными результатами. Теперь же, выделив под свою виртуальную ось 512 мегабайт, я добился быстродействия, ничем не отличающегося от plain vanilla. Этого же объема памяти за глаза хватило для всех моих форточных нужд!


    К оглавлению

    id="sgolub_1">

    Голубятня: Буффонада анахронизма

    Сергей Голубицкий

    Опубликовано 01 декабря 2010 года

    Собственно, Сам ЛитРес меня не интересует, поскольку все отношения с этой конторой я давно уже прояснил и вывел в сухой остаток. Онлайн-торговцы от литературы торгуют моими книгами уже который год, но так до сих пор и не сподобились заплатить мне как автору ни копейки. Максимум, что удалось добиться, так это наивного лепета об издательстве «Бестселлер», которому якобы принадлежат права на двухтомник «Как зовут вашего бога?». На самом деле никогда никакие права на электронные продажи своих книг никому я не передавал ни по какому договору, издательству «Бестселлеру» — в том числе. Тем более, что срок действия моего договора с «Бестселлером» давным-давно истек, а значит вообще никаких прав на мои книги ни у кого кроме меня нет.

    Все это не имеет ни малейшего значения. С «Бестселлером» у меня абсолютное понимание: продажи «Как зовут вашего бога?» в онлайн-магазине ЛитРес стремятся к абсолютному нулю и не потому, что книга никому не интересна, а потому что она повсеместно лежит в открытом доступе, где и скачивается тысячекратно ежедневно и постоянно, находясь в самом верху всех мыслимых списков популярной литературы.

    Но и это не имеет ни малейшего значения. А посему всю заочную полемику с ЛитРес я априорно вывожу за рамки частностей и конкретностей. Ничего, как говорится, личного. Просто господа-товарищи горько-прегорько заблуждаются. И по поводу реальности книжного рынка, и по поводу его будущего и по всем остальным поводам. О причине наивных заблуждений можно лишь догадываться. Я склоняюсь к дилетантизму, но может и что-то другое. Например, потребность просто отрабатывать тему. Дали денег, запустили заведомо гиблый, безнадежный и бесперспективный проект. Нужно же что-то говорить, делать какие-то заявления. Но только выглядит это со стороны до того бесполётно, до того приземлённо, что становится неловко.

    Если и можно было выдумать гибляк, то это — модель бизнеса, выбранная ЛитРесом. Модель, идущая в пику всем существующим в мире тенденциям, проигрывающая и Amazon, и Apple, и B&N, и даже украинскому Bookland. Почему? Потому что и первые, и вторые, и третьи, и четвертые не прут против радикальной тенденции времени (а тенденцию эту не понимает только спиногрыз в подгузнике: дни наживы на интеллектуальной собственности со-чте-ны! Всё! Уехал поезд, а то, что мы наблюдаем — это жалкая агония и попытка сгрести в алчную ладошку последние засохшие крохи), а создают новые парадигмы. В частности, парадигму канала доставки контента как наиболее перспективную. Есть еще парадигмы рекламного покрытия и много других разных, но для ЛитРес всё не в кассу. ЛитРесу хочется продавать книжечки так же, как это делают взрослые дяди в риаллайфе. То, что у взрослых дядей есть свой оверхэд, типография, верстка, макетирование, редактура и прочие игры взрослых дядей, а у ЛитРеса нет ничего кроме желания зарабатывать на тиражировании контента с нулевой себестоимостью, ЛитРес нисколько не смущает.

    Соответственно, не смущает эта дикая модель бизнеса и пользователей, которые спокойно идут мимо раскрытых дверей ЛитРеса. Почему? Потому что аргументы о выкинутых на улицу работниках книжной торговли (по мне — так паразитирующих бездельников), про аж три судебных иска, про насильственное удушение бесплатных библиотек — это такой моветон, такой анахронизм, такой позор, что ноги сами устремляются быстро и мимо — прочь от litres.ru в сторону flibusta.net, lib.ru gettenberg.org и МИЛЛИОНОВ открытых свободных бесплатных ресурсов.

    Ах да — забыл про главный аргумент: про украденную колбасу (у господина Анурьева — выхваченную у сестры сумку)! Тут даже говорить не хочется, потому что жевано-пережевано до аскомины. Посему не буду придумывать ничего нового и повторю себя любимого сколько-то летней давности:

    Вопрос «Что такое хорошо и что такое плохо?» применительно к «пиратству» решил для себя лет 15 назад, писал об это неоднократно, посему сейчас ограничусь лишь компендиумом для случайно забредших в наш экстравагантный палисадник:

    - Полагаю репрессивные меры по соблюдению т.н. авторского права на электронную продукцию (то есть такую, которая допускает неограниченное тиражирование без дополнительных материальных затрат) самым страшным злом нашего времени, не только деформирующим этическую систему общества, но и наносящим непоправимый урон развитию нации – интеллектуальному, культурному, творческому;

    - Параллели между «украденной в магазине булкой и загруженным по торренту фильмом» способен проводить либо моральный урод, либо интеллектуальный кретин – и здесь бессмысленно объяснять что-то на пальцах: если человек самостоятельно не видит принципиальной разницы, он безнадежен;

    - Само по себе «авторское право на электронную продукцию» (аудио, видео, текст, графика – в любой форме) – предельно подлая и лицемерная аберрация, поскольку в подавляющей массе своей никаких прав подлинных создателей интеллектуального продукта это «право» не защищает. «Авторское право», по крайней мере то, что борется с потребителями с помощью полицейских репрессий – это форма и проявление корпоративного тоталитаризма – новой общественно-экономической формации, в которую мы все дружно скатились, сами того не замечая. «Авторское право» защищает интересы не актеров, музыкантов и программистов, а киностудий, студий звукозаписей и софтверных концернов, которые расплачиваются со своими рабами-актерами, рабами-музыкантами и рабами-программистами жалчайшими крохами, укладывая в собственный бездонный карман многомиллиардные барыши, непропорциональные приложенным усилиям. Для того, чтобы оценить эту непропорциональность, достаточно сравнить реальные расходы какого-нибудь «Форда», «Тойоты», «Самсунга» или «Сони» с расходами Adobe, Microsoft или EMI Records.


    К оглавлению

    id="sgolub_2">

    Голубятня: Три звука

    Сергей Голубицкий

    Опубликовано 05 декабря 2010 года

    Сегодня предлагаю читателям обещанное сравнение звучания мобильных акустических систем. Мы прослушаем три гаджета, два из которых уже знакомы читателям по нашим видео обзорам: это JBL On Tour XT:


    И самое свежее мое откровение — Logitech S715i:


    Третья мобильная акустическая система, которая поселилась в моем доме почти год назад (Дед Мороз положил под ёлку одной восхитительной особе) — это JBL On Stage IIIp, вариация на тему On Tour, специально заточенная под айфон (проприетарный разъем):


    Тестирование проводилось хоть и в домашних, но во вполне себе тепличных условиях, а именно: в полностью закрытом небольшом помещении с неплохой акустикой и звукоизоляцией. Запись звучания акустических систем производилась на блестяще зарекомендовавший себя Olympus Linear PCM Recorder LS-10 с ручной установкой уровня, на расстоянии 50 сантиметров от центра звукового сигнала сверху под углом в 45 градусов. Параметры записи — некомпрессированный PCM (Wave), 16-bit, 44,1 kHz.

    В качестве исходного трека я выбрал выдержку на 4 минуты 30 секунд из композиции Supertramp «Brother Where You Bound» одноименного альбома 1985 года. Трек изобилует самыми невероятными акустическими перепадами: здесь и стилизация под виниловую запись, и коротковолновый радиоэфир, и чистый вокал, и ударные волны, и массивные низы, и бог весть что еще на любой вкус и цвет. Исходный формат трека — Apple Lossless, воспроизведение — на iPhone 4.

    Соединение с JBL On Tour XT шло через обычный стерео джек, соединение с JBL On Stage — также через стереоджек вопреки наличию проприетарного разъема, через который iPhone 4 категорически отказался соединяться, выдав идиотское сообщение о том, что подключение устройства может вызвать помехи для работы сотовой связи (???). Соединение с Logitech S715i — через проприетарный надкусановый разъем.

    Последний нюанс, о котором обязан донести читателю: записи звучания колонок JBL проводились на одинаковом уровне и на максимальной громкости. Запись Logitech проходила на слегка пониженном уровне и громкости около 80 процентов, поскольку на максимуме появлялись искажения звука и бесконечный клиппинг.

    Все три записи нормализованы по 0 Db. Размер каждого трека — около 50 мегабайт.

    Результаты получились — сразу признаюсь — весьма и весьма неоднозначными и по меньшей мере — достойными осмысления и обсуждения. Очень бы хотелось послушать мнение людей с профессиональными ушами (бредунов на тему ламповых усилителей и акустики hi-end просьба не беспокоиться и не засорять эфир своими комплексами).

    Итак, забирайте:

    JBL On Tour XT

    JBL On Stage IIIp

    Logitech S715i

    PS. Небольшой квиз: фонограмма какого фильма звучит в самом начале трека Supertramp?


    К оглавлению

    >

    Ноутбуки

    id="notebooks_0">

    История ноутбуков: из шкафа в карман — 2

    Роман Бобков

    Опубликовано 29 ноября 2010 года

    Продолжение. Первую часть читайте здесь.

    Прошло 17 лет, прежде чем идеи Алана Кэя в области конструкции мобильных компьютеров обрели реальное воплощение. Не так уж много, хотя, если проецировать этот срок на темпы развития индустрии, получится очень даже немало. Казалось бы, совсем недавно мобильный телефон был исключительно статусным девайсом, применяемым господами в голде и версачах в основном в качестве указки. А теперь? Вот именно. Одно время популярна была аналогия: если бы, например, космические корабли развивались темпами, соразмерными с компьютерами, мы бы сейчас летали в отпуск если не к центру Галактики, то уж наверняка в соседние звёздные системы.

    Возможно, возможно. А быть может, и нет. Это сейчас развитие компьютеров (и мобильных в том числе) кажется таким линейным, последовательным и равномерным, а ведь в бурные восьмидесятые в мире ПК царил редкостный кавардак. Идеи генерировались, воплощались и хоронились с потрясающей скоростью и противоречивостью. Битва за лидерство шла ещё не только между брендами, и небольшая компания могла в считанные месяцы попасть в ТОР10 или кануть в Лету, а настоящие стандарты и вовсе было единичны.

    Именно в такое время рождаются легенды и создаются империи. Впрочем, и рушатся тоже.

    Распутье или распутица?

    Джеймс Уилсон в книге «Vintage Laptop Computers: First Decade» пусть немного искусственно, но довольно точно делит историю мобильных ПК на три десятилетия. Правда, описывает он в основном первое из них, но рациональное зерно в таком подходе, конечно, есть. Единственное уточнение: период безвременья или, если угодно, междувластия. Это как в годы Смуты, более знакомой нам под названием «гражданская война»: то белые, то красные, то какие-то зелёные или синие, а то и Махно набежит. В течение нескольких лет на рынке одновременно присутствовали и «чемоданы», вроде Osborne 1, и клоны GRiD Compass, и почти современные ноутбуки (упомянутый в первой части Ampere WS-1). Вроде бы последний форм-фактор указал верное направление конструкторской мысли. Однако двинулась мысль в этом направлении не сразу.

    Причин тому было несколько. Помимо вполне объяснимых и понятных технических (нет адекватных дисплеев и батарей) фигурировали хоть и объяснимые, но уже менее понятные рядовому пользователю коммерческие причины. И в самом деле: если товар покупают, незачем от него сразу и навсегда отказываться только потому, что есть новые образцы. Они на то и новые, что ещё не обкатанные: непонятно, как будут работать, неясно, как их будут раскупать. Переход же в производстве мобильных ПК от «чемодана» к «папке» — штука почти такая же непростая, как перевод, скажем, автозавода с тяжёлых грузовиков на хэтчбеки. Менять нужно всё, от собственных ресурсов до поставщиков комплектующих. При этом грузовики вроде бы продаются и доход приносят...

    Словом, задачка та ещё. Да, и не будем забывать, что в 80-х годах индустрия OEM/ODM не то чтобы категорически отличалась от нынешней. Её, считай, вообще не было. Это сегодня какой ноутбук ни возьми, его собирают если не на Foxconn, то уж наверняка на Compal Electronics или Quanta Computer. Четверть века назад любой производитель ПК был сам себе Original Equipment и все риски, связанные с выводом на рынок принципиально новых технологий и приборов, нёс, грубо говоря, на своём горбу. А он, чай, не казённый, и рисковать приходилось не одной партией товара, а всем производством. Достаточно припомнить банкротство Osborne Computer Corporation, для которого хватило всего-то одной попытки сыграть на чужом поле...

    Требовались не только коммерческая решимость, чутьё и упорство. Ещё и удача немалая, и терпение. Наконец, убедительность: инвесторам ещё объяснить надо, почему они должны принести свои профиты именно сюда, а не в автопром или к нефтяникам.

    Есть такое слово — «заказ»

    Помните, откуда вырос легендарный GRiD Compass 1101? А кто заказывал конструкторскому бюро ЗиЛ не менее легендарную «Синюю птицу»? Вот именно. Двигает прогресс обычно лень, но великая и непобедимая Государственная Необходимость тоже не последнюю скрипку в этом оркестре играет. И отнюдь не только в административно-командной экономике.

    Оркестр госзаказа вторично сыграл по-крупному на поле индустрии мобильных ПК в 1987 году. И поступил тот заказ уже не из NASA, а из Пентагона. ВВС США объявили тендер на закупку 200 000 ноутбуков для своих нужд. Сегодня такая партия кажется крупной, но не очень. Так, середняк для более-менее ёмкого рынка. В 1987 году это было невообразимо много. Вспомним хотя бы рекордный тираж Osborne 1, на котором Адам Нерешительный заработал себе пожизненную пенсию. Словом, пирог был ну очень вкусен, и в битву за него включились такие монстры, как IBM, Toshiba, Compaq, NEC. А также мало кому известная сегодня Zenith Data Systems (ZDS).

    Битва за пирог с печатью US Air Force оказалась тяжкой и кровопролитной. Условия же заявлены были такие, что из всех участников никто не мог предоставить самый простой вариант: модель ноутбука, которая уже готова и продаётся. ВВС требовали: искомый девайс должен быть современным, действительно мобильным и дружественным к пользователю. Логично. Американские лётчики, конечно, ребята крепкие, но таскать пудовые «чемоданы» в течение рабочего дня могут не все. И осваивать языки программирования — тоже. Победить в таких условиях мог лишь тот, кто предложит наиболее адекватный прототип, причём сделает это не только быстрее других, но и дешевле. Деньги-то у налогоплательщиков взяты, тут ответственность суровее, чем перед коммерческими инвесторами...

    Победила молодость — компания ZDS, учреждённая в 1979 году. Причём выиграла тендер она весьма остроумным ходом. На момент подачи заявки у нее, как и у остальных участников, не было готового устройства. Но был такой, который можно быстро, а главное, с минимальными затратами переделать. Аппарат Zenith Z-171 конструктивно представлял собой фактически то, что нужно, только в вертикальной проекции. Моноблок в форм-факторе «саквояж» с откидной клавиатурой. Системная плата располагалась непосредственно за дисплеем, а за ней шли батареи. Всего и дел, что оперативно «перебросить» плату под клавиатуру, освободив дисплей, который и станет крышкой. А батарею упаковать в новый корпус, присоединяемый с тыла. Разумеется, гладко было на бумаге, в производстве наверняка пришлось поднатужиться. Но у других и такого туза в колоде не оказалось, а создать что-то новое они не успели. В итоге вкуснейший заказ достался ZDS, а ВВС США обрели устройство под названием Zenith SupersPORT.

    Поначалу все модификации закончились перетасовкой системной платы и аккумулятора. Процессор Intel 8086 4,77 МГц, два 3,5’’ флоппи-дисковода 720К, 640 кб RAM, 10.5’’ CGA LCD и MS DOS для руководства перечисленным остались фактически неизменными. Этот же набор имел и Z-171, отличаясь только конструкцией. По идее, компания могла смело почивать на лаврах и снимать сливки: договор поставки составлен именно на такую конфигурацию, чего напрягаться? Однако ZDS весьма оперативно представила обновлённые модели, в которых стоял и процессор помощнее (сперва Intel 8086 8 МГц, а чуть погодя и Intel 80286), и винчестер на 20 Мб, и даже модем на 2024 бод. В комплект также были добавлены внешний флоппи-дисковод 5’’, батареи двойной ёмкости и даже адаптер питания для прикуривателя. Однако было бы несправедливо, если бы всю эту радость получили только ВВС. И различные версии «суперспортов» поступили в открытую продажу. Тем более после такой рекламы, как выигранный тендер, продажи эти обещали быть веьма успешными. В конце 80-х ZDS стала крупнейшим производителем ноутбуков.

    Такой оригинальный equipment

    История появления Zenith SuperSPORT интересна ещё и тем, что это был первый масштабный случай OEM-сотрудничества в отрасли. Чтобы не провалить столь удачно добытый контракт, Zenith Data Systems заключила соглашение с Tottori Sanyo, одним из крупнейших на тот момент азиатских производителей электроники и комплектующих. Собственно, он и сегодня не из последних, но тогда был практически лидером. Прочие конкуренты ZDS, вступая в битву за приснопамятный заказ, рассчитывали лишь на собственные мощности. А вот ZDS...

    ZDS изначально нацеливалась на OEM-контракт. И не только выиграла, но и показала направление, в котором двинулась вся IT-индустрия, и место, которое она сегодня заняла. В конце 80-х наиболее перспективным для европейских и американских компаний было сотрудничество с японскими производителями, такими, как Tottori Sanyo, Citizen или Casio. Японская экономика пёрла в гору, как танк, при этом производство комплектующих становилось заметно дешевле, нежели в европах или америках. Что, в свою очередь, позволило ZDS организовать ещё и серьёзный ценовой демпинг — также впервые на рынке мобильных компьютеров.

    Следом за ZDS двинулись и Dell, и Compaq, и даже IBM. Да что там IBM: и такие исконно японские концерны, как NEC или Toshiba, тоже, пусть и не сразу, перешли на OEM и даже ODM. Ничего удивительного — «японское экономическое чудо» и впрямь творило чудеса: за неполное десятилетие уровень жизни японцев вплотную приблизился к американскому. Соответственно производство внутри страны существенно подорожало. И для удешевления его следовало выносить в те края, где месячная зарплата японского рабочего превосходит годовой доход местного управляющего. Сперва заводы на Тайване, затем — Южная Корея, а после некоторого пересмотра коммунистических идеалов и «корейского экономического чуда» — материковый Китай. Туда в последнее десятилетие направились и корейские, и тайваньские бренды, поднимая китайскую экономику на уровень, соответствующий численности китайского народа. Правда, неясно, куда двигаться дальше, когда экономика таки поднимется: мир ведь всё настойчивее говорит о «китайском экономическом чуде»...

    Однако об этом — как-нибудь в другой раз.

    "...идущий за мною сильнее меня"

    Впрочем, в лидерах ZDS задержался ненадолго. Всё-таки тому, кто идёт следом, удобнее и проще — он видит все грабли и ямы, истоптанные пионером, и, если разумом не обижен, может их счастливо миновать. А если при этом не обижен ещё и ресурсами — и людскими, и технологическими, — в нужный момент наверняка вырвется вперёд, чтобы осваивать не только новые грабли, но и новые горизонты.

    Заметьте: в понимании IT-отрасли большинство компаний, создавших знаковые или просто знаменитые ноутбуки, были выскочками. И Osborne Computer Corporation, и GRiD Systems Corporation, да и Zenith Data Systems созданы, что называется, на коленке и комариным чихом поддержаны. Разумеется, в сравнении с IBM, Dell или Toshiba, которым на тот момент было от полувека до века от роду и которые много чего производили помимо ноутбуков. Да, в 70-е и 80-е можно было у себя в гараже сделать состояние и легенду. Однако «corporation» в названии — вовсе не то, что настоящая корпорация. Это, образно выражаясь, рубашка на вырост. А вырастет клиент или так и останется в детских портках, это уже не столь важно.

    Смутные времена ноутбукостроения закончились в начале 90-х. Именно к этому периоду окончательно устаканились и форм-фактор лэптопов, и принципы конструирования, да и состав игроков за общим столом. Однако в описываемом периоде было ещё несколько устройств, заслуживающих хотя бы упоминания. Заранее извинюсь: если перечислять все, то места даже тут не хватит. Всерьёз интересующимся предлагаю заглянуть на сайт Old Computers. Ну и вообще не забывать о правильном гуглении.

    Один из знаковых девайсов — Cambridge Z88. В начале 80-х компания Sinclair Research учредила небезызвестный проект Pandora. Клайв Синклер, добившись серьёзных успехов на поприще удешевления ПК, всё-таки отказался от дальнейшей гонки.

    Вот вам и ещё один парадокс: самые дешёвые в мире ПК, разошедшиеся по миру миллионными тиражами, так и не смогли помочь компании стать лидером. Клайв махнул на это дело рукой, под занавес сев поиграть на поле компактных устройств. В привычном качестве — дизайнера и конструктора. Cambridge Z88, появившийся в конце 1988 года в продаже, работающий от 4-х АА батареек, приобрёл немалую популярность среди журналистов и бухгалтеров. Отдельного доброго слова заслуживает клавиатура, сделанная по комбинированной мембранно-резиновой технологии. Сегодня на многих нетбуках и даже ноутбуках фигурирует именно такая.

    Как и его идейный предшественник, Tandy (Kyocera) TRS-80 Model 100, анонсированный ещё в 1983 году, Cambridge Z88 в итоге укрепил движение конструкторской мысли в сторону клавиатурных КПК. Главные принципы, чуть погодя развитые в стандарты, — это компактность, автономность, отсутствие механических носителей информации (FDD/HDD), собственные ОС. Не прошло и года, как в этой области появилось воистину революционное устройство.


    Atari Portfolio


    Atari Portfolio, 1989 год. Сколько про него рассказано! «Герой» второго «Терминатора». Первый клавиатурный КПК. Легенда. Революция. Всё это и многое другое — вполне справедливо. Устройство и впрямь оказалось знаковым, открыв путь, ведущий от ноутбуков в самостоятельную ветвь. Мы к ним ещё не раз вернёмся, пока же просто запомним год и модель. И то, что клавиатурные КПК в массовом производстве получили реальную clamshell-конструкцию корпуса, пожалуй, даже раньше, чем ноутбуки.


    Cambridge Z88


    Вообще же 1989 год можно считать своего рода рубежом. Например, NEC UltraLite, анонсированный именно в этом году, помимо вполне современного форм-фактора отличался очень важной конструктивной деталью: у него была вполне современная компоновка и конструкция клавиатуры.

    NEC UltraLite


    Не уверен, что это первый ноутбук, оборудованный такими клавишами, но ничего похожего, сделанного ранее, я не нашёл. Были либо слегка модифицированные «настольные» варианты (чаще всего), либо комбинированные кнопки, как в TRS-80 или Cambridge Z88. Вот вам и ещё один заявленный стандарт!

    Compaq LTE


    Compaq LTE, выпущенный на рынок в том же году, открыл не просто новую серию. Достижений у этой серии несколько. Так, например, появление навигационного блока и встроенного trackball. Впрочем, наиболее значимый вклад в стандарты у этой серии всё же иной: здесь впервые появились двухшпиндельные ноутбуки, то есть оснащённые жёстким диском и флоппи-дисководом одновременно.

    Zenith Supersport


    Версия Zenith SupersPORT, оснащённая HDD, имела только внешний FDD. Вослед Compaq двухшпиндельную конструкцию стали использовать все, кому не лень. Но стандарт утвердила всё-таки американская корпорация. Заметьте: эти тоже из молодых, компания учреждена всего-то в 1982 году.

    Macintosh Portable


    Фанаты яблочного бренда наверняка возмутятся: а как же Macintosh Portable? Он-то тоже 1989 года! Отчасти принимается, но только отчасти. Главные достижения Apple конкретно в этом устройстве — превосходного качества дисплей с активной матрицей (и где бы это его сделали, хе-хе?), долгое время автономной работы и отличный трэкболл. Самое ужасное — цена: 6000 долларов тогда могли отвалить либо денежные мешки, либо упёртые фанаты. Как ни удивительно, но нашлись и те и другие. Не останавливала ни цена, ни вес устройства. Но всё-таки настоящий ноутбук вполне современной конструкции появился у компании только в 1991 году. Его звали Macintosh PowerBook 100.

    Литература

    Dan Gookin: Laptops For Dummies John W. Maxwell: Tracing the Dynabook James E. Wilson: Vintage Laptop Computers: First Decade (1980-89) Christian Wurster: Computers: An Illustrated History.


    К оглавлению

    id="notebooks_1">

    Альтернативные оболочки и ОС для нетбуков

    Евгений Крестников

    Опубликовано 30 ноября 2010 года

    Компания ASUS выпустила в 2007 году знаменитый EeePC 701, первый массовый нетбук, таким образом основав новую категорию на рынке ноутбуков. Тем не менее своим названием этот класс устройств обязан другому игроку — корпорации Intel, а точнее платформе Intel Netbook, на основе которой должны были делать недорогие ноутбуки для образования. Термин "смартбук" (англ. smartbook) появился позже — так называют нетбуки с модулем 3G, а также, зачастую, построенные на основе компонентов современных смартфонов. Его активно используют на тематических порталах, но в повседневный обиход (по крайней мере в России) это слово не вошло.

    Немного истории

    Нетбуки первого поколения были маломощными машинами с маленькими экранами (семь-девять дюймов), и у производителей возник вопрос, какую операционную систему на них устанавливать. Windows Vista на бюджетных «малышах» работать не могла, и до выпуска Windows 7 нетбуки поставлялись в основном с предустановленной Windows XP Home (корпорации Microsoft даже пришлось продлить сроки продаж этой ОС). Устройства с альтернативными ОС на основе Linux также появились в продаже, но особой популярностью не пользовались; западные потребители не хотели их покупать, а в России их брали, чтобы сразу переустановить систему.


    Причиной этого стали и маркетинговые, и технические проблемы: популярные у производителей дистрибутивы Linpus и Xandros (ниже мы к ним еще вернемся) выглядели настолько убого, что хотелось сразу заменить их чем-то более приличным. Кроме того, потребителю нужен был компактный недорогой ноутбук с привычной средой, а не устройство непонятного класса, инакость которого спишет все технические недочеты. Современные нетбуки оснащают экранами с диагональю десять-двенадцать дюймов, а их вычислительные мощности существенно выросли, появились даже мультимедийные нетбуки с дискретной графикой. Теперь на них устанавливают Windows 7, но альтернативные системы для нетбуков по-прежнему существуют.

    Аутсайдеры. Xandros, Linpus, Sugar и gOS

    Основанный на Debian и выпускающийся одноименной компанией коммерческий дистрибутив Xandros устанавливали на ранние модели ASUS EeePC. В рамках этого проекта были разработаны OEM-решения для нетбуков, содержащие как свободные, так и проприетарные компоненты (вероятно, именно этим был обусловлен выбор ASUS). В портфолио компании ПО для нетбуков есть и сейчас, но в продаже таких устройств не видно.

    Linpus Linux это созданный на основе Fedora тайваньской компанией Linpus Technologies коммерческий дистрибутив. Для работы на нетбуках предназначена его специальная версия — Lite. Система устанавливалась в основном на нетбуки компании Acer. Пробную версию Linpus Lite можно загрузить на сайте компании. Также доступна версия, основанная на графической оболочке MeeGo.

    XO-1


    Говоря о специализированном ПО для нетбуков, нельзя не упомянуть проект OLPC (One Laptop Per Child), цель которого — обеспечить детей из развивающихся стран доступными портативными машинами. Проект OLPC скорее мертв, чем жив, но несмотря на это он продолжает радовать сетевую общественность регулярными анонсами и концептами. В сухом остатке мы имеем устаревший XO-1, провалившуюся социальную программу «Give 1 Get 1» и особо никому не нужную оболочку Sugar.

    Последний дистрибутив в нашем списке аутсайдеров — gOS. Создан он американской компанией gOS LLC на основе Ubuntu. gOS использует менеджер окон Enlightenment, который не столь требователен к вычислительным ресурсам компьютера. Отнести этот дистрибутив к решениям для нетбуков можно благодаря его второй отличительной особенности: рекламный слоган компании «An alternative OS with Google Apps and other Web 2.0 apps for the masses». На практике это означает наличие иконок популярных веб-приложений в макоподобном доке. От разрабатывающейся компанией Google Chrome OS (к ней мы еще вернемся) дистрибутив отличается возможностью установки локальных приложений.

    Ubuntu Netbook Remix (UNR)

    Компания Canonical выпускает вариант Ubuntu Linux для нетбуков. В сущности, это всего лишь несколько пакетов в репозитории дистрибутива, оптимизирующих среду Gnome 2 для экранов с небольшой диагональю. Самый заметный из них — netbook-launcher, основанная на библиотеке Clutter замена традиционного рабочего стола и меню. UNR использует обычную панель Gnome, но вместо панели задач здесь действует window-picker-applet, который отображает запущенные неактивные приложения в виде значков, а активное — в виде кнопки с предназначенным для закрытия окна «крестиком» (если оно развернуто во весь экран). Декорации развернутых окон убирает специальная программа maximus. Кроме того, вместо привычного меню Gnome в UNR есть кнопка, позволяющая переключиться на Netbook Launcher из любого приложения.


    Существует и специальный образ дистрибутива Ubuntu для нетбуков, который позволяет сразу установить оптимизированную для небольших экранов среду. Однако следует понимать, что UNR (как и Kubuntu, Xubuntu и т.д.) отдельными дистрибутивами не являются (все воплощения Ubuntu используют одни и те же репозитории). Разница здесь только в составе установочного диска, наборе пакетов и конфигурации системы по умолчанию.

    В настоящее время Canonical активно использует Unity (графическую оболочку собственной разработки, предназначенную в том числе и для нетбуков). Тем не менее в Ubuntu 10.04 LTS (версия дистрибутива с длительным сроком поддержки — до 2013 года) ее не включили, а значит, старая редакция для нетбуков пока актуальна. У производителей устройств она не была популярной, а вот «убунтоводы» используют эту редакцию довольно активно.

    Gnome Shell

    Наиболее спорная инновация была разработана в среде рабочего стола Gnome 3, выпуск которой ожидается весной. Если вкратце, разработчики Gnome решили заменить традиционный рабочий стол, оконный менеджер Metacity и панели новой оболочкой , основанной на библиотеке Clutter, и композитным менеджером окон Mutter.


    Они пытаются создать некую универсальную среду (которую можно использовать на всех типах устройств, включая нетбуки). Подробный обзор Gnome Shell можно найти на нашем сайте. Этот продукт вызывал много критических отзывов и на сегодняшний день находится в состоянии активной разработки. Если верить скриншотам, актуальная версия оболочки сильно отличается от рассмотренной нами в августе: внешне она уже больше похожа на созданную в Canonical оболочку Unity.

    Ubuntu Netbook Edition (Unity)

    Не зная, чего ожидать от разработчиков Gnome, в Canonical решили подготовить себе запасной аэродром и сделали собственную графическую оболочку Unity. Она уже используется по умолчанию в Ubuntu Linux 10.10 Netbook Edition, а в следующем релизе заменит штатную оболочку Gnome в настольной версии системы. Вместо оконного менеджера Mutter в Ubuntu 11.04 будет использоваться Compiz. Кроме того, среда Ubuntu Netbook Edition предполагает наличие глобального меню и кнопок управления развернутым окном в верхней панели (декорации таких окон по-прежнему прячет maximus).


    Представители Canonical неоднократно говорили о планах компании активнее сотрудничать с производителями устройств. Не исключено, что в следующем году можно будет приобрести нетбуки с предустановленной версией Ubuntu Netbook Edition.

    KDE 4 Plasma Netbook

    Для поклонников среды KDE есть сходное с UNR решение: KDE 4 Plasma Netbook доступна во всех популярных дистрибутивах Linux (пакет обычно называется kde4-plasma-netbook или plasma-netbook).


    Она представляет собой специальным образом сконфигурированную среду рабочего стола KDE 4 с «плазмоидом» рабочего стола. Plasma Netbook по умолчанию используется, например, в разрабатываемой сообществом редакции дистрибутива Ubuntu — Kubuntu Netbook.

    MeeGo

    Компании Intel и Nokia объединили свои разработки и создали свободную платформу MeeGo. Впоследствии к этой инициативе присоединились и другие разработчики, в частности главный конкурент Intel — компания AMD. На сайте проекта доступны реализации MeeGo для различных типов устройств (нетбуков, смартфонов и т. д.), которые не стоит путать, это разные системы.


    Если говорить о MeeGo для нетбуков, она существует в двух ипостасях — как независимый дистрибутив Linux, образ которого можно скачать, и как оболочка, которую со временем включат во все популярные дистрибутивы Linux (некоторые элементы MeeGo можно найти в репозиториях для Fedora, Debian, Ubuntu и OpenSUSE). Подробную статью об установке MeeGo на нетбук мы уже публиковали в рамках проекта «Ноутбуки».

    Chrome/Chromium OS

    Эта операционная система пока доступна только в своем «негугловом» воплощении — под названием Chromium OS. Наверное, стоит пояснить, чем она отличается от настоящей Chrome OS. В рамках проекта Chromium , при непосредственном участии Google, разрабатывают браузер и одноименную ОС. На основе открытого исходного кода из этого проекта и собственных модификаций, корпорация делает браузер Chrome и Chrome OS. Последняя широкой публике пока не представлена.

    Схема старая, как мир: ее практикуют RedHat и Novell в своих коммерческих дистрибутивах — RedHat Enterprise Linux основан на Fedora, а SUSE Linux — на OpenSUSE. Chrome/Chromium OS базируется на Debian, поддерживает проприетарные форматы (наподобие Adobe Flash) из коробки и предназначена для запуска одного единственного приложения — браузера Chrome/Chromium. В конце ноября 2009 года общественность получает доступ к исходным текстам Chromium OS и в сети сразу появляются образы для ее запуска в VMWave/VirtualBox.


    Чтобы понять, на что похожа Chrome/Chromium OS, достаточно запустить Google Chrome. Этот браузер — основа интерфейса новой системы (отличий немного: в Chrome/Chromium OS нет рабочего стола и панели задач, а все элементы управления вынесены на панель браузера). Меню реализовано в виде отдельной вкладки. Все приложения и данные находятся в сети, на локальной машине — только минимальная система и браузер. При этом, каждое веб-приложение будет работать в изолированной «песочнице». Также для Chrome OS будет доступен магазин приложений. Chrome/Chromium OS позволяет работать с любыми веб-сервисами, но для входа в систему используется аккаунт Google. Разумеется, без широкополосного мобильного доступа в сеть такая система не имеет смысла, а значит, использовать ее в России можно будет только в некоторых крупных городах.

    Вместо заключения

    В рамках одной статьи очень сложно охватить все существующие проекты; мир Opensource отличается большим разнообразием. Однако основные платформы и графические оболочки мы постарались охватить, по крайней мере — специально предназначенные для использования на нетбуках (неспециализированные оконные менеджеры для Linux остались за кадром). У рассмотренных вариантов есть общие черты: они основаны на использовании Linux и предполагают запуск обычных настольных приложений. Платформы для смартфонов здесь совершенно непригодны — пользователю нужна полноценная рабочая среда (браузеры, офисный пакет, графический редактор и т.д.), и разработчики софта могут экспериментировать только с графическими оболочками. Особое место в ряду подобных решений занимает Chrome/Chromium OS, но предназначенная только для работы с веб-приложениями платформа едва ли будет пользоваться большой популярностью в ближайшем будущем.


    К оглавлению

    id="notebooks_2">

    Всё, что нужно знать о ноутбуках Apple

    Олег Нечай

    Опубликовано 01 декабря 2010 года

    Компьютеры компании Apple со дня своего появления составляли отдельную категорию, развиваясь параллельно с массовой открытой платформой PC, но мало в чём пересекаясь с ней как по аппаратной, так и по программной части. Однако начиная с 2006 года, после перехода с платформы собственной разработки на базе процессоров PowerPC на стандартную платформу x86-64 Intel, технически Macintosh — как десктопы, так и ноутбуки — практически перестали отличаться от обычных PC. Принципиальные отличия остались только на уровне операционной системы Mac OS X и программного обеспечения, но даже при этом на любой современный компьютер Apple можно установить Windows, причём в качестве не только второй, но и основной системы.

    Последнее обновление линейки ноутбуков Apple состоялось в октябре 2010 года, когда были представлены новые модели семейства MacBook Air. Помимо них в семейство «яблочных» лэптопов входят компьютеры серий MacBook и MacBook Pro. Позиционирование этих машин вполне очевидно: MacBook — ноутбуки начального уровня со скромными вычислительными возможностями, MacBook Air — сверхтонкие и лёгкие субноутбуки для тех, кому необходим максимально компактный, но полноценный аппарат, MacBook Pro — машины для требовательных пользователей с широким набором комплектаций и экранами с диагональю от 13,3 до семнадцати дюймов.

    Все современные ноутбуки Apple выпускаются в корпусах из цельного бруска алюминия, за исключением MacBook, у которых корпус выполнен из белого пластика. При этом все эти лэптопы построены на единой платформе и очень близки по аппаратной начинке; разница лишь в производительности применяемых компонентов и вариантах их расположения в корпусе. Рассмотрим все эти семейства по отдельности.

    MacBook Air

    В момент своего появления на рынке в начале 2008 году MacBook Air с диагональю экрана 13,3 дюйма носил звание «самый тонкий ноутбук в мире». Однако за прошедшие годы у него появилось множество не менее тонких и лёгких конкурентов, а единственный порт USB и малораспространённый видеовыход Mini Display Port стали восприниматься уже не столько как причуды главы Apple Стива Джобса, а как очевидные и несомненные недостатки. К 2010 году морально устарела и начинка старых Air, в результате чего ноутбуки практически перестали пользоваться спросом, так что обновление семейства было неизбежным.


    Представленные в октябре 2010 года MacBook Air претерпели принципиальные изменения: во-первых, в серию вошла модель с диагональю экрана 11,6 дюйма, а оба экрана получили повышенное разрешение; во-вторых, вместо классических винчестеров в Air теперь устанавливаются исключительно твёрдотельные SSD-накопители; в-третьих, в новинках теперь такой же бескнопочный трекпад, как и в прочих алюминиевых «макбуках» (вся его поверхность представляет собой большую кнопку); и в-четвёртых, вместо одного порта USB 2.0 в новинках их целых два.

    В новых моделях исчез инфракрасный порт, предназначавшийся для работы с пультом ДУ Apple Remote, регулирующим громкость и управлявшим мультимедийным плеером Front Row, — потеря небольшая, ведь вряд ли кому-то придёт в голову смотреть кино на крохотном экране, усевшись за несколько метров перед ним. К более печальным потерям стоит отнести тот факт, что клавиатура лишилась подсветки, а экран - датчика освещённости: яркость теперь можно регулировать только вручную.

    Наконец, впервые ноутбуки Apple стали комплектоваться не дисками с операционной системой и программным обеспечением, а миниатюрным флэш-драйвом — покупать внешний оптический накопитель MacBook Air SuperDrive теперь вовсе не обязательно.

    Младший Air оснащается глянцевым экраном с диагональю 11,6 дюйма с разрешением 1366 х 768 пикселей (для сравнения, у «старого» Air с диагональю 13,3 дюйма разрешение дисплея составляло 1280 х 800 точек) и светодиодной подсветкой, процессором Intel Core 2 Duo с тактовой частотой 1,4 или 1,6 ГГц (3 Мбайта кэш-памяти L2, системная шина 800 МГц), 2 Гбайтами (4 — опционально) оперативной памяти DDR3 1066 МГц, флэш-памятью на 64 или 128 Гбайт, двумя портами USB 2.0, портом Mini Display Port и выходом на наушники.

    В старший Air устанавливаются глянцевый дисплей с диагональю 13,3 дюйма с разрешением 1440 х 900 пикселей и светодиодной подсветкой, процессор Intel Core 2 Duo c тактовой частотой 1,86 или 2,13 ГГц (6 Мбайт кэш-памяти L2, системная шина 1600 МГц), 2 Гбайта (4 — опционально) оперативной памяти DDR3 1066 МГц, флэш-диск на 128 или 256 Гбайт, два порта USB 2.0, порт Mini Display Port, выход на наушники и картридер формата SD.

    На смену чипсету NVIDIA GeForce 9400M (MCP79) со встроенной графикой пришёл более современный набор логики NVIDIA GeForce 320M (MCP89) с выделением под кадровый буфер 256 Мбайт из системной памяти DDR3. Новое графическое ядро GT216 существенно производительнее старого. Оно состоит из 48 универсальных процессоров, шестнадцати текстурных и восьми блоков блендинга. Номинальная тактовая частота ядра — 450 МГц, универсальных процессоров — 950 МГц. Поддерживается аппаратное декодирование видео высокого разрешения PureVideo HD (VP4), программные интерфейсы DirectX 10.1 и OpenGL 3.2, а также технологии общих вычислений CUDA, OpenCL и DirectCompute.

    Обе машины снабжены современными адаптерами беспроводной связи AirPort Extreme (IEEE 802.11a/b/g/n) и Bluetooth 2.0+EDR, веб-камерой FaceTime, стереофоническими (впервые в Air) громкоговорителями и микрофоном.

    В ноутбуках установлена встроенная аккумуляторная батарея - точнее, четыре тонких батарейных блока, распределённых по корпусу. Заявленное время автономной работы — до пяти часов у младшей модели и до семи часов — у старшей.

    Как и предыдущие поколения Air, новинки не отличаются особо демократичными ценами, особенно в России: за младшую модель 11,6 дюйма с процессором 1,4 ГГц и 64 Гбайт флэш-памяти просят 42 990 рублей (на 370 долларов больше, чем в США), а за старшую, 13,3 дюйма, с чипом 2,13 ГГц и 256 Гбайт памяти — 79 690 рублей (на 840 долларов больше, чем в США!).

    MacBook

    Самый массовый, ещё совсем недавно портативный компьютер Apple, похоже, скоро уйдёт в историю: по некоторым сведениям, его полностью заменит MacBook Air. Однако высокий спрос на простые модели заставил Apple временно отказаться от снятия с производства недорогих MacBook: единственная актуальная модель с дисплеем 13,3 дюйма почти полностью повторяет дизайн «алюминиевого» MacBook Pro, но выпускается в белоснежно-белом пластмассовом корпусе. В «белом макбуке» теперь есть такой же стеклянный бескнопочный трекпад, как в прочих ноутбуках Apple, весьма производительная встроенная графика и мощная аккумуляторная батарея.


    MacBook оснащается глянцевым экраном с диагональю 13,3 дюйма с разрешением 1280 х 800 пикселей и светодиодной подсветкой, процессором Intel Core 2 Duo с тактовой частотой 2,4 ГГц (3 Мбайта кэш-памяти L2, системная шина 1066 МГц), 2 Гбайтами (4 — опционально) оперативной памяти DDR3 1066 МГц, винчестером на 250 Гбайт (опционально — 320 или 500 Гбайт), DVD-рекордером SuperDrive со слотовой загрузкой, двумя портами USB 2.0, портом Mini Display Port, сетевым портом и совмещённым аудиовходом/выходом на наушники.

    В качестве графического ускорителя в MacBook используется то же решение, что и в новых Air: это встроенное в чипсет NVIDIA GeForce 320M (MCP89) графическое ядро GT216 с поддержкой выделения 256 Мбайт в системной памяти DDR3 под кадровый буфер.

    Ноутбук снабжён сетевым гигабитным адаптером, а также модулями беспроводной связи AirPort Extreme (IEEE 802.11a/b/g/n) и Bluetooth 2.0+EDR, веб-камерой iSight, стереофоническими громкоговорителями и микрофоном.

    Встроенная в корпус компьютера аккумуляторная батарея обеспечивает до 10 часов автономной работы — чрезвычайно хороший показатель для ноутбука такого класса.

    В США цена этой модели начинается с символических 999 долларов, в российских же магазинах за неё просят уже не столь скромные 43 990 рублей — на 400 долларов больше. Тем не менее это самый дешёвый полноразмерный ноутбук Apple в современной линейке: базовый Air 13,3 дюйма с процессором 1,86 ГГц и 128 Гбайтами флэш-памяти обойдётся уже в 55 990 рублей.

    MacBook Pro

    Самое обширное на сегодняшний день семейство ноутбуков Apple включает себя три модели с диагоналями экранов 13,3, 15,4 и семнадцать дюймов. Все они выпускаются в цельноалюминиевых корпусах единого дизайна.


    Младшая модель с экраном 13,3 дюйма дебютировала в своё время как MacBook; осенью 2008 года были представлены первые «алюминиевые макбуки» на основе нового на тот момент набора микросхем NVIDIA GeForce 9400M, оснащённые экраном со светодиодной подсветкой, портом Mini DisplayPort и бескнопочным стеклянным трекпадом. В середине 2009 года практически тот же самый ноутбук с минимальными изменениями был переименован в MacBook Pro; в линейке MacBook остались только модели в пластмассовых корпусах. В ноутбуке слегка изменилась начинка, появились улучшенный экран и несъёмная аккумуляторная батарея, порт FireWire 800 и картридер SD, а клавиатура с подсветкой стала стандартом.

    Современный MacBook Pro с диагональю 13,3 дюйма оснащается глянцевым экраном с разрешением 1280 х 800 пикселей и светодиодной подсветкой, процессором Intel Core 2 Duo с тактовой частотой 2,4 ГГц или 2,66 ГГц (3 Мбайта кэш-памяти L2, системная шина 1066 МГц), 4 Гбайтами оперативной памяти DDR3 1066 МГц, винчестером на 250 или 320 Гбайт, DVD-рекордером SuperDrive со слотовой загрузкой, двумя портами USB 2.0, портом FireWire 800, портом Mini Display Port, сетевым портом, картридером SD и совмещённым аудиовходом/выходом на наушники.

    Графический ускоритель — всё тот же самый NVIDIA GeForce 320M (MCP89) с поддержкой выделения 256 Мбайт в системной памяти DDR3 под кадровый буфер. Машина оснащается гигабитным сетевым адаптером, модулями беспроводной связи AirPort Extreme (IEEE 802.11a/b/g/n) и Bluetooth 2.0+EDR, веб-камерой iSight, стереофоническими громкоговорителями и микрофоном.

    Заявленная длительность автономной работы от встроенной аккумуляторной батареи — до 10 часов автономной работы в режиме беспроводного веб-сёрфинга.

    Розничная цена MacBook Pro 13,3 дюйма в российских магазинах составляет от 49 990 рублей за модель с процессором 2,4 ГГц и винчестером на 250 Гбайт до 64 490 рублей за лэптоп с процессором 2,66 ГГц и жёстким диском на 320 Гбайт.

    MacBook Pro с диагональю экрана 15,4 и семнадцать дюймов внешне отличаются от младшего по сути лишь габаритами, отдельными аудиовходом и выходами и вырезанными по бокам от клавиатуры отверстиями под динамики. В отличие от больших ноутбуков других производителей, в Apple не считают нужным устанавливать в них клавиатуры с отдельным цифровым блоком, поэтому выглядят они довольно странно: слишком много пустого пространства. И похоже, это осознанная позиция «яблочных» конструкторов: даже настольные iMac сегодня комплектуются «урезанной» клавиатурой без цифрового блока. Возможно, это вызвано тем, что среди пользователей Mac не так уж много бухгалтеров, но в любом случае такая компоновка понравится не всем.

    MacBook Pro с диагональю экрана 15,4 и семнадцать дюймов построены на более мощной платформе и оснащаются двуядерными процессорами серий Intel Core i5/i7, а также гибридной видеосистемой: интегрированным в процессор ядром Intel HD Graphics и дискретной графикой NVIDIA GeForce GT330M с автоматическим переключением в зависимости от нагрузки. В арсенале обоих моделей — гигабитный сетевой адаптер, модули беспроводной связи AirPort Extreme (IEEE 802.11a/b/g/n) и Bluetooth 2.0+EDR, веб-камера iSight, стереофоническая акустическая система и микрофон.

    В машины с диагональю экрана 15,4 дюйма устанавливается глянцевый экран с разрешением 1440 х 900 пикселей (на заказ — 1680 х 1050 точек), причём в качестве опции для обоих дисплеев доступно матовое антибликовое покрытие: внешне такие ноутбуки легко отличить по алюминиевой рамке вокруг экрана. Однако по какой-то неведомой причине дилеры везут в Россию исключительно глянцевые модели, так что шансы встретить на прилавке магазина ноутбук с матовым экраном приближаются к нулю — только на заказ.

    В стандартных моделях используются процессоры Core i5 2,4 ГГц, 2,53 ГГц (3 Мбайта L3, 1066 FSB) или Core i7 2,66 ГГц (4 Мбайта L3, 1066 FSB), на заказ доступен Core i7 2,8 ГГц, при этом в моделях с Core i5 устанавливается графика NVIDIA GeForce GT330M с 256 Мбайтами видеопамяти GDDR3, а в ноутбуках с Core i7 — c 512 Мбайтами видеопамяти.

    Среди прочих характеристик этой модели — 4 Гбайта оперативной памяти DDR3 1066 МГц с возможностью расширения до 8 Гбайт, винчестер на 320 или 500 Гбайт, DVD-рекордер SuperDrive со слотовой загрузкой, два порта USB 2.0, порт FireWire 800, порт Mini Display Port, сетевой порт, картридер SD, аудиовход и аудиовыход (комбинированные аналоговый/цифровой). Встроенный аккумулятор обеспечивает до 8-9 часов автономной работы ноутбука.

    Российские цены на MacBook Pro с диагональю экрано 15,4 дюйма составляют: от 77 490 рублей за машину с процессором Core i5 2,4 ГГц и винчестером на 320 Гбайт до 90 490 рублей за ноутбук с чипом Core i7 2,66 ГГц и жёстким диском на 500 Гбайт.

    MacBook Pro 17 дюймов на сегодняшний день представлен единственной стандартной моделью с процессором Core i5 2,53 ГГц (в качестве опций доступны чипы Core i5 2,66 ГГц и Core i7 2,8 ГГц) и глянцевым экраном с разрешением 1920 х 1200 пикселей. Как и в случае с лэптопами 15,4 дюйма, на заказ возможна поставка ноутбука с матовым экраном.

    Машина комплектуется 4 Гбайтами оперативной памяти DDR3 1066 МГЦ c возможностью расширения до 8 Гбайт, винчестером на 500 Гбайт (опционально — 500 Гбайт на 7200 об/мин или SSD на 128, 256 или 512 Гбайт) и DVD-рекордером SuperDrive со слотовой загрузкой. В качестве дискретной графики используется ускоритель NVIDIA GeForce GT 330M с 512 Мбайтами памяти GDDR.

    В компьютере установлены три порта USB 2.0, порт FireWire 800, порт Mini Display Port, сетевой порт, слот ExpressCard/34, аудиовход и аудиовыход (комбинированные аналоговый/цифровой). Встроенный аккумулятор обеспечивает до 8-9 часов автономной работы ноутбука.

    Цены на MacBook Pro с диагональю экрана семндцать дюймов в России начинаются от 97 990 рублей за базовую модель с процессором Core i5 2,53 ГГц. В США этот же компьютер стоит 2299 долларов, то есть на 825 долларов дешевле.

    * * *

    В целом в Apple разработана весьма сбалансированная линейка портативных компьютеров, среди которых можно подобрать модель практически для любых задач. Сильные стороны этих ноутбуков — красивый, прочный и лёгкий корпус, современная начинка, удобная и стабильная операционная система. Всё было бы замечательно, если бы не российские цены на лэптопы Apple, превращающие качественную массовую технику в элитарную продукцию для состоятельных эстетов. Вряд ли можно считать нормальным, что российские цены примерно на треть выше американских. В абсолютных цифрах это означает, что разница может составлять от $300 до $1000, в зависимости от первоначальной цены продукта, и это резко ограничивает спрос даже на самые доступные ноутбуки Apple.


    К оглавлению

    id="notebooks_3">

    Безопасность и биометрия в Windows 7

    Александр Деревянко

    Опубликовано 03 декабря 2010 года

    В современном мире вопросы информационной безопасности стоят особенно остро в силу нескольких причин. Это и важность сохраняемой информации, ее капиталоемкость, и обострение криминогенной ситуации в области защиты информации из-за имеющего места мирового финансового кризиса.

    Подавляющее большинство бизнесменов и менеджеров, задействованных на ответственных должностях, ежедневно в своей работе используют портативные переносные устройства обработки информации — ноутбуки, нетбуки, КПК и коммуникаторы различного назначения. Нет нужды много говорить о важности доступа к информации, которая хранится и обрабатывается в их недрах, и о последствиях ее утраты или доступа к ней посторонних лиц. Все эти вопросы носят характер первостепенной важности.

    Одна из последних операционных систем линейки Windows — Windows 7 предлагает в своём составе комплексный подход к решению данной проблемы. Одним из основных компонентов такого подхода явилась реализация Windows Biometric Framework биометрической инфраструктуры.

    Например, в Windows Vista, если вы хотели использовать отпечатки пальцев для входа в систему, нужно было использовать ПО производителей датчиков, считывающих отпечатки пальцев. Новая функция безопасности в Windows 7 под названием Biometric Framework предоставляет собственную поддержку устройств считывания отпечатков пальцев и упрощает задачу внедрения биометрической безопасности в решении повседневных задач. Эта технология используется для управления считыванием отпечатков пальцев. Причём можно управлять настройками биометрических устройств из панели управления системы, а параметры можно настраивать на разрешение входа пользователей в Windows и/или в домен, используя биометрические данные. Для каждого пользователя можно даже задавать вполне определённый палец (его отпечаток).

    Служба Windows Biometric Service (WBS) является частью инфраструктуры, управляющей устройствами считывания отпечатков пальцев и действующей в качестве посредника ввода-вывода между приложениями и биометрическими устройствами. В этом случае приложения не имеют непосредственного доступа к данным, что и улучшает существенным образом конфиденциальность и общую безопасность при работе.

    Общий обзор технологии Windows Biometric Framework

    Использование сканера отпечатков пальцев основано на довольно простых методах работы. Сначала приложение сканирует один или несколько отпечатков и выделяет некоторые особенности эпидермального рисунка. В дальнейшем эта информация позволяет проверить, тот ли человек, который предоставил образцы отпечатков, пытается сканировать палец или некто пытается мистифицировать систему принятия решения. Сам процесс получения образцов отпечатков пальцев известен как Enroll. Дальнейшая повторяющаяся проверка отпечатков называется Verify. Процедура поиска пользователя по его отпечаткам - Identification. По своей сути система принятия решения об идентификации пользователя не может давать однозначного ответа на вопрос: «Действительно ли это тот самый пользователь, который нам нужен?» Оценка является вероятностной, и существует некая величина или количество баллов, которые показывают, насколько вероятна ошибка при идентификации пользователя (MatchingThreshold score).

    Несмотря на то что принцип работы с отпечатками пальцев простой и единообразный для любого приложения, на данный момент не существует стандарта для универсальной работы со сканерами любого производителя. Соответственно нет и универсального комплекта средств разработки (в дальнейшем SDK), который позволил бы использовать любой имеющийся сканер. Работы по стандартизации ведутся, но стандарты пока ещё не выработаны. Между тем Microsoft вместе с Windows 7 продвигает свой стандарт — Windows Biometric Framework (WBF).

    Производители сканеров, как правило, предоставляют SDK, позволяющие работать с их устройствами. На сегодняшний день стоят такие решения недёшево — в районе $1000. Что интересно, для работы с Linux, к примеру, часто есть и бесплатные версии SDK в отличие от библиотек под Windows, но они имеют ряд ограничений. Есть решения и других производителей, позволяющие использовать множество различных устройств с помощью одного и того же комплекта SDK, но для каждого конкретного сканера нужно анализировать вопросы аппаратной поддержки.

    Цена сторонних решений сравнима с ценой SDK от производителей самих устройств. Тем не менее существует бесплатное решение, работающее и в Windows, — к примеру от neurotechnology.com. Это Free Fingerprint Verification SDK. Но и в этой бесплатной библиотеке не обходится без некоторых ограничений. Одно из них — существование версии, работающей только с 32-разрядными операционными системами от Microsoft. При этом данные о пользователях сохраняются только в специальном формате, предоставленном производителем. Сохранить можно данные не более чем по 10 отпечаткам. Не поддерживается режим Identification.  

    Можно увидеть, что такие ограничения довольно жёстки. В полноценных версиях все они сняты — библиотека работает в любой ОС, сохраняет данные об отпечатках пальцев в любой базе данных. Но и цена соответственно составит указанную ранее сумму: примерно $1000. Используя изложенные подходы, производители включают свои решения как в персональные компьютеры, так и в ноутбуки, используемые повсеместно для решения задач — от обыденных бытовых нужд до бизнес-задач уровня предприятий.

    ASUS, AuthenTec и Microsoft — тройка лидеров

    Общепризнанным мировым лидером в области производства не только материнских плат, но и ноутбуков является ASUSTeK Computer. Биометрическая платформа Windows7 нашла широкую поддержку среди ноутбуков от ASUS. Данный факт подтвердила и лидирующая в мире компания AuthenTec (http://www.authentec.com/) — поставщик высокоинтеллектуальных решений, основанных на технологиях анализа отпечатков пальцев. Решения AuthenTec на базе платформы Windows Biometric Framework (WBF) были интегрированы во многие модели ноутбуков от ASUS, что позволило существенно улучшить сенсорные функции работы датчиков анализа отпечатков пальцев и повысить общий уровень безопасности, удобства и персонализации.

    Корпорации ASUS удалось очень удачно реализовать в своих решениях плод совместной работы AuthenTec и Microsoft. На сегодняшний день миллионы современных ноутбуков и ПК включают интеллектуальные датчики отпечатков пальцев от AuthenTec в рамках реализации операционной системы Windows7, обеспечивающие наивысшие уровни безопасности, удобства и персонализации. А аппаратной реализацией таких решений как раз и занимается ASUS, предоставляя свою платформу для Microsoft. Coвместные усилия этих гигантов компьютерной индустрии обеспечивают чрезвычайно точные и надежные механизмы анализа отпечатков пальцев по их заранее отснятым изображениям. Датчики AuthenTec способны в своей работе считывать информацию, находящуюся ниже первого слоя поверхности кожи, обеспечивая тем самым работу с областями «не изменяющегося» эпидермиса и многократно увеличивая вероятность правильного принятия решения на этапе анализа данных.

    "ASUS еще раз продемонстрировала свое лидерство в области IT-рынка, предлагая технические решения, включающие самые современные технологии. К их числу можно отнести анонс новой линейки ноутбуков, которые используют технологии, известные как Windows Biometric Framework, предлагаемые AuthenTec совместно с разработчиками Windows", — неоднократно говорил на различных презентациях Джеймс Тун, заместитель директора ASUS по продукции.

    "Мы были в числе первых производителей ноутбуков в мире, использующих интеграцию новой архитектуры WBF и решений AuthenTec, и очень рады продолжать внедрение этих технологий и дальше, используя сенсорные особенности датчиков AuthenTec и WBF решения от Microsoft", — продолжал он. 

    А вот мнение другого лидера: «ASUSTeK продолжает дифференцировать свои продукты с добавлением новых функций и возможностей, в том числе новой технологии Windows Biometric Framework», — сказал Том Эбли, вице-президент AuthenTec. Продолжая основную тему, он добавил: «ASUS предложил WBF интегрированное решение на ноутбуках задолго до остальных игроков в этой отрасли. Мы рассчитываем и дальше на поддержку интеграции WBF в Centrino 2 ноутбуках от ASUS, а также их применение в моделях ноутбуков следующего поколения с новыми процессорами Intel».

    На сегодняшний день одним из ярких примеров ноутбуков с поддержкой технологии Windows Biometric Framework может стать модель серии F8, которая представляет собой оптимальное сочетание мобильности и производительности с полноценной системой безопасности, защищающая ноутбук и хранимые на нём данные. Конфиденциальность данных обеспечивается встроенным сканером отпечатка пальца AuthenTec с технологией TruePrint®, благодаря которой сканер считывает рисунок живого слоя кожи и точность распознавания не ухудшается, даже если поверхность пальца загрязнена или повреждена. Кроме этого, встроенный аппаратный модуль TPM (название спецификации, детализирующей криптопроцессор, в котором хранятся криптографические ключи для защиты информации) позволяет предотвратить атаки хакеров, ищущих пароли и шифровальные ключи к конфиденциальным данным. Помимо указанной серии корпорация ASUS предоставляет самый широкий диапазон решений подобного рода. Конечно, как всегда, выбор остаётся за пользователем, но он уже кажется очевидным, и этот выбор нужно реализовывать здесь, на официальном сайте ASUS.

    Выводы

    На сегодняшний день несомненным лидером в производстве системного программного продукта является корпорация Microsoft, а в области аппаратной реализации и поддержки этих программных продуктов — ASUSTeK Computer. Реализация в линейке ноутбуков от ASUS технологии Windows Biometric Framework существенно повышает общий уровень безопасности, удобства и персонализации при работе с цифровой информацией любого вида. Очевидно, что будущее при выборе серьёзных устройств для работы с цифровой информацией любого рода лежит в поле компетенции ASUS и ее аппаратных продуктов.


    К оглавлению