7

Ответ на пост «Сфера ИИ криминализуется, или я драматизирую?»

Нужно просто привыкать уже к изменяющемуся миру. Этот фарш не провернуть назад. Когда-то художники-портретисты боялись, что появляющаяся технология фотографии отнимет у них хлеб. Правильно боялись. Сейчас имеет смысл бояться, что нейросеть скопирует неповторимый стиль художника, любой голос (даже без студийной записи) или внешность человека по паре фотографий.

Всё, хватит цепляться за эту ерунду. Прогресс не остановить, ящик пандоры открыт, а очередная технологическая революция опять согнала с насиженных тёплых мест очередную горстку стремительно устаревающих профессий.

Если вашу работу легко автоматизировать, то во все времена ваше трудоустройство по этой профессии под угрозой. В любом случае что-то поменяется. Нужно не зацикливаться и делать то.что интересно и востребовано. У нас огромная фора (пока что) на фоне нейросетей и генеративных моделей - это энтузиазм, любопытство и интерес, из которых появляется инициатива.

Очень будет интересно, когда инициативе научат искусственный интеллект.

Ну а на счет "криминализуется"... Криминализуется любая область, где есть люди. ИИ тут ни при чем.

31

Сфера ИИ криминализуется, или я драматизирую?

С моей сотрудницей давеча случилась прелюбопытная история.

У нас работает девушка-дизайнер, скажем, Катя. Кроме прочих талантов, она обладает интересным тембром голоса. В студенчестве Катя участвовала в разных самодеятельных мероприятиях и даже стажировалась на радио ведущей. И тогда, и в будущие годы она постоянно слышала от прошаренных людей, что могла бы сделать карьеру диктора, актрисы озвучки, радиоведущей – очень уж голос «эфирный», приятный.

Сфера ИИ криминализуется, или я драматизирую? Истории из жизни, Искусственный интеллект, Голос, Telegram (ссылка), Офис, Длинное, Сотрудники, Длиннопост

 

И вот недавно Катю пригласили на прослушивание в известную школу радио и телевидения, где обучают актёров дубляжа, теле- и радиоведущих, ораторов. Пригласили с прицелом на обучение по одной из платных программ (опять же, актёры озвучки, дикторы, ораторы; обучение платное, офлайн-курс с дипломом или сертификатом стоит в среднем 100 000 руб.).

Мы пожелали Кате всяческой удачи на прослушивании и стали за неё болеть. Прослушивание прошло отлично, как доложила потом Катя: организаторы широко улыбались, показывали ей большие пальцы, бросали в воздух чепчики, обещали перезвонить.

Сфера ИИ криминализуется, или я драматизирую? Истории из жизни, Искусственный интеллект, Голос, Telegram (ссылка), Офис, Длинное, Сотрудники, Длиннопост

А дальше по классике: не перезвонили. Почему, отчего? Неужели Кате всё приглючилось, и на самом деле на прослушивании ей показывали вовсе не большие пальцы?

Мы подёргали одного хорошего знакомого, который работает звуковиком у известного блогера. Знакомый сказал, что история странненькая: мир актёров озвучки очень небольшой, поскольку и потребности невелики, существующий пул актёров закрывает все задачи с головой. Смысл учить новых – ну, не очень большой, разве что денег срубить на этом деле, но… Катю не пригласили на обучение, то есть дело не в деньгах.

Сфера ИИ криминализуется, или я драматизирую? Истории из жизни, Искусственный интеллект, Голос, Telegram (ссылка), Офис, Длинное, Сотрудники, Длиннопост

А в чём тогда? Неужели дело том, что теперь где-то есть студийная запись необычного Катиного голоса с редким тембром, выразительной артикуляцией, уникальной манерой речи? Неужели кто-то сможет теперь скормить образец этого голоса нейросети и забесплатно получить редкоголосные озвучки чего угодно, о чём Катя никогда не узнает и денег за это не получит?

Очень недостойная мысль пришла в наши головы, ага. Конечно, ничего такого не может быть потому что… На самом деле, такое запросто может быть.

Вспоминается тут светлой памяти Сухир Баладжи. Он работал в OpenAI четыре года, из которых последние полтора отвечал за сбор информации для анализа ИИ. На собранных им данных обучался ChatGPT.

В конце лета-2024 Сухир внезапно осознал: ой, подход OpenAI к обучению ИИ нарушает авторские права! Интернет-данные для модели используются без разрешения правообладателей, при этом компания ставит пометку добросовестного использования! А обученная нейросеть, по сути, тут же начинают конкурировать с учительскими данными, используя их информацию и паттерны действий.

Сфера ИИ криминализуется, или я драматизирую? Истории из жизни, Искусственный интеллект, Голос, Telegram (ссылка), Офис, Длинное, Сотрудники, Длиннопост

Опубликовав разоблачительное открытое письмо, Баладжи хлопнул дверью OpenAI, следом за ним ушли некоторые другие разработчики, информация разлетелась по Сети, креаторы начали массово подавать на OpenAI в суд. The New York Times  опубликовала большое интервью с Сухиром, где он разнёс подход OpenAI к сбору данных, выразил сомнения в юридической обоснованности использования материалов для обучения ИИ, заявил о намерении судиться с бывшим работодателем, поскольку имеет на руках некоторые внутренние документы, доказывающие интересное.

В декабре Баладжи должен был дать интервью Associated Press, но чуть ранее, вернувшись из недельной поездки по поводу своего дня рождения, внезапно умер от пули в голове.

Сфера ИИ криминализуется, или я драматизирую? Истории из жизни, Искусственный интеллект, Голос, Telegram (ссылка), Офис, Длинное, Сотрудники, Длиннопост

Он был найден мёртвым в своей квартире, и полиция заявила, что Сухир застрелился. Но его мать в интервью Такеру Карлсону указала на ряд странностей: не связанная с выстрелом травма головы, нетипичная для самоубийства траектория пули, пропавшие из квартиры флешки…

Это всё, конечно, по-ра-зительные совпадения, как и в истории с нашей Катей, и как со смертями Линча и Чемберлена после того, как они выиграли суд у HP.

Но людям, которые ходят рядом с наступившим будущим, нейросетями, искусственным интеллектом и прочими интересами крупного бизнеса, стоит, пожалуй, держать ушки на макушки.

Продолжаем наблюдение.

Показать полностью 5
Отличная работа, все прочитано!