С быстрым распространением новых релизов, основанных на алгоритмах, наконец-то можно со всей серьезностью спросить: «Кто пишет музыку будущего?»: не писатель-фантаст, в конце концов, а пророческая реальность. Искусственный интеллект наконец-то в студии: будь то последний «пост» от Beatles с недавно восстановленным вокалом Джона Леннона благодаря ИИ, или те нейронные сети, которые действительно создают целые треки — с вокалом, текстами и миксом. Так что же произойдет, если следующая песня, которая вам понравится, будет написана вовсе не кем-то, а просто программой, которая «присутствует» в миллионах других песен?
Сейчас мы живем в эпоху, когда ИИ — не просто инструмент. Он начал становиться соавтором, с которым нужно согласовывать смысл и границы творчества. Это не какая-то новая причуда, свойственная только компьютерной эпохе. Скорее, это относится к системе звукопроизводства, в которой алгоритмы не «исполняют» музыку, а генерируют её, следуя заданным правилам или обработав огромные массивы данных. Ничего нового в этом абзаце нет, ведь Брайан Ино (Brian Eno) уже знакомился с подобными системами, создающими бесконечное количество меняющихся звуковых систем в 90-х, представив одно из самых невероятных и вдохновляющих нововведений. Учитывая это, можно предположить, что его альбом «Generative Music 1» был своего рода декларацией: музыка не повторяется и существует только в данный момент.
Эта концепция постоянно развивается в современных приложениях: Endlesss, Mubert или AIVA, которые предлагают возможность «сочинять» на ходу, задавая настроение и ритм, без единой ноты или установки каких-либо плагинов. Другое – решения нового поколения, такие как Suno, Udio и Riffusion, которые могут генерировать полноценную песню с голосом и структурой по описанию, как будто её написал живой человек.

Существует два подхода к ИИ: как к инструменту и как к создателю. В первом случае ИИ помогает — подбирает аккорды, создаёт биты, анализирует тембр голоса и предлагает варианты сведения. Во втором случае система работает полностью автономно: пишет трек, делает его мастеринг и выпускает релиз. Уже появились «виртуальные продюсеры», у которых нет тела, но есть стиль. Реальные люди существуют: вспомните YONA или FN Meka, которые публикуют музыку в социальных сетях и формируют свою аудиторию.
Но кто же тогда пишет? Если алгоритму дали тысячи треков Aphex Twin, Burial, Nina Kraviz и Jeff Mills, где заканчивается вдохновение и начинается плагиат? Вопрос авторства выходит далеко за рамки закона; это философский вопрос. ИИ не чувствует и не импровизирует; он «предсказывает» на основе статистики. Он может точно так же полностью воспроизвести атмосферу dub techno, как DeepChord, или структуру progressive house, как Anjunadeep, хотя и не испытывает внутреннего импульса к появлению новых идей для «мелодии».

На самом деле всё гораздо прозаичнее. Плагины на основе ИИ теперь доступны в современных DAW, от Ableton Live до Logic Pro: Magenta от Google генерирует MIDI-партии, WavTool предлагает идеи для аранжировки, Orb Producer пишет гармонии, а Amper Music — саундтреки к видео. Многие электронные музыканты используют их для получения «второго мнения» или просто для творческого всплеска.
ИИ может создавать десятки вариаций ритма, но выбор всегда остаётся за продюсером. Любой, кто работал со звуком на детальном уровне, знает: грув, свинг, ритм и «дышащая» компрессия — всё это алгоритм пока не понимает.
Паранойя будущего, когда машины заменят музыку, и паранойя 1980-х, когда появились синтезаторы. И снова всё та же старая история: они убьют душу звука машинами, верно? Что ж, именно машина, синтезатор, подарила нам techno, house, ambient – всю эту современную культуру – «электронную» культуру от Детройта до Берлина. Похожая история повторилась и с автотюном – искусственным инструментом, ставшим частью эстетики и языка поп- и электронной сцен. Машины не заменяют людей, они лишь улучшают их. Возможно, будущее не в конкуренции, а в сотрудничестве. Уже появляются виртуальные ди-джеи, которые могут играть живые сеты в метавселенной, реагируя на то, что генерирует аудитория.
Музыка становится интерактивной: она может меняться в реальном времени в зависимости от эмоций слушателя, погодных условий или данных с умных устройств. Представьте ambient композицию, которая реагирует на ваше настроение, или techno сет, подстраивающийся под пульс толпы. Это не утопия — это направление, в котором двигаются компании вроде Mubert и Oda.
Но главный вопрос остаётся неизменным: кто кого учит? Сегодня ИИ учится у людей, анализируя их творчество, но в процессе заставляет нас переосмыслить саму идею творчества. Музыканты начинают задавать себе новые вопросы: что делает трек «живым»? где граница между техникой и эмоцией? каково место продюсера, если инструмент становится разумным?
Музыка будущего, вероятно, не будет продуктом алгоритма — она станет диалогом между чувствами и данными, между человеком, который ищет смысл и машиной, которая помогает этот смысл выразить. И, возможно, именно в этой синергии рождается новый виток эволюции звука — не в противостоянии, а в сотрудничестве.


