Пионеры мобильного и документального экспериментального театра, Rimini Protokoll, в 2013 году специально для Рурской триеннале сделали проект (его с трудом можно назвать спектаклем в конвенциональном смысле этого слова) Situation Rooms. В искусственно созданном ультрареалистичном помещении, объединяющем несколько комнат, 20 зрителей с айпадами в руках исследуют истории 20 реальных людей, жизнь которых так или иначе была определена войной или оружием. Зрители изредка пересекаются между собой, но в основном перемещаются по комнатам в одиночку. На экране айпадов и в наушниках им транслируются реальные видео, связанные с жизнью этих людей, и даются инструкции по перемещению. Длится всё это дело на протяжении 70 минут и, как все проекты Rimini Protokoll, разрывает границы жанров: ты и на спектакле, где зритель равен исполнителю, и внутри компьютерного шутера, и на журналистском задании одновременно.

Перформанс worlds, сделанный[3] в коллаборации нескольких крупных канадских университетов и показанный в 2015 году в Ванкувере на конференции Международного общества электронного искусства, сочетает технологии AR и real-time motion capture. В одной из сцен перформанса цирковая актриса выполняет акробатическую пластику на обруче, подвешенном к потолку. Перформерка одета в костюм с гиросенсорами, данные с которых фиксируются камерами в реальном времени и передаются на компьютер с программой, моделирующей AR. На экранах мобильных устройств зрителей, которые наводят камеры на актрису, она демонстрируется в миниатюрной копии, без всяких канатов двигающаяся в нарисованной пирамиде.

Есть совсем неожиданные примеры: Британский национальный театр в 2017 году совместно с компаниями Epson и Accenture внедрил для некоторых спектаклей возможность просмотра субтитров прямо поверх самого действия, не отвлекаясь на экраны над или сбоку сцены. Для этого используются очки дополненной реальности Epson Moverio и специальное программное обеспечение, которое выводит текст субтитров. Технология была внедрена для увеличения доступности театра людям с ограничениями или повреждениями слуха.

Захват движения

Технология motion capture начала назревать в 70-х годах и в 80-х получила первое реальное применение. Интересно, что кинематограф добрался до mo-cap несколько позже, чем театр, современный танец и академическая музыка. Так, в 1989 году композитор Марк Кониглио разрабатывает систему MidiDancer, которая в беспроводном формате передаёт на компьютер данные от тензорезисторов (датчиков сгиба или flex sensors), прикреплённые на сгибах конечностей перформера. Информация, считываемая с этих сенсоров, была запрограммирована Кониглио и его коллегами на управление предзаписанными видео-фрагментами, модификацию музыки в онлайн-режиме и регулирование осветительных приборов.

В 1999 году хореограф Мерс Каннингем, которому к тому моменту было уже 80 лет, впервые показал балет BIPED – название дублировало имя одной из программ, использованных при создании спектакля. Этот балет стал одной из тех эпохальных точек, которые обозначили появление цифрового перформанса и ещё сильнее запустили процесс апроприации технологий театром. Спектакль состоял из двух частей – собственно живое исполнение танцовщицами на сцене хореографической партитуры, а также видеопроекция, которая частично включала в себя абстрактные анимированные фигуры, а частично – анимированные видео рисованных танцовщиц, проецирующиеся на прозрачный суперзанавес. Для этой анимации на трёх танцовщиц Каннингема навешали сенсоры в виде белых шаров, которые фиксировали камеры, расставленные по периметру студии, в которой девушки танцевали. Движения, зафиксированные камерами, переводились в 3D-модели человеческих силуэтов, нарисованных карандашными штрихами, а затем выводились на проекционный занавес, вступая в разнообразные отношения с живыми танцорами на сцене – то синхронизируясь с их партиями, то работая в контрапункт.