28.09.2024
126
ИИ заменяет адвоката, ИИ пишет эссе настолько хорошо, что обманывает профессоров, ИИ лишает работы художников, потому что любой может создать обложку журнала или написать музыку к фильму... Эти примеры попали в заголовки газет в последние месяцы, особенно заявления о грядущем устаревании интеллектуальных профессий и менеджеров. Однако ИИ не является инновацией в том смысле, что он существует уже очень давно. С середины 1950-х годов сменялись волны тревоги и фантазий, каждый раз с одним и тем же пророчеством: людей навсегда заменят машины. И каждый раз эти предсказания не сбывались. Но на этот раз, когда мы видим, как множится использование новых ИИ, можем ли мы обоснованно верить, что все будет иначе?
Говоря про искусственный интеллект, у многих людей в воображении возникает картина наступившего "будущего". Новости и медиа говорят о том, что прямо на наших глазах происходит технологический прорыв. Но так ли это на самом деле?
Алгоритмы, используемые ChatGPT или DALL-E, похожи на те, которые известны и используются уже несколько лет. Если инновация заключается не в алгоритмах, то, возможно, крупный технологический прорыв позволит обрабатывать большие объемы данных более «интеллектуальным» способом? Вовсе нет! Те достижения, которые мы наблюдаем, являются результатом относительно непрерывного и предсказуемого прогресса. Даже широко обсуждаемый генеративный ИИ, т. е. использование алгоритмов, обученных генерировать множество возможных ответов, тоже не нов - хотя улучшение результатов делает его все более пригодным для использования.
То, что произошло за последний год, - это вовсе не технологический революция, а прорыв в использовании. До сих пор гиганты ИИ держали эти технологии при себе или выпускали только ограниченные версии, тем самым ограничивая их использование широкой публикой. Новички (OpenAI, Stable.AI и Midjourney), напротив, решили позволить людям свободно распоряжаться своими алгоритмами. Настоящий прорыв заключается именно в том, что ИИ стал общедоступен.
Как уже говорилось выше, крупные компании, такие как Google, Apple и Meta не хуже дргих владеют этими технологиями, однако держат их в строго ограниченном доступен. Они поддерживают очень жесткий контроль над своим ИИ по двум причинам.
Во-первых, это их имидж: если ChatGPT или DALL-E создадут расистский, дискриминационный или оскорбительный контент, ошибка будет оправдана тем, что они - стартапы, которые еще находятся в процессе обучения. Это «право на ошибку» не распространяется на Google, репутация которого будет серьезно подмочена (не говоря уже о возможных юридических проблемах).
Вторая причина - стратегическая. Обучение и тренировка алгоритмов ИИ стоит невероятно дорого (речь идет о миллионах долларов). Эти ошеломляющие затраты выгодны GAFAM, которые уже хорошо себя зарекомендовали.
Открыть доступ к их ИИ означает отказаться от этого конкурентного преимущества. Однако эта ситуация покажется парадоксальной, если учесть, что те же самые компании выросли за счет освобождения использования технологий (поисковых систем, веб-платформ), в то время как другие известные игроки того времени ревностно охраняли их под жестким контролем. Помимо научной демонстрации, одна из причин, по которой Facebook сделала свою модель Llama доступной, заключалась именно в том, чтобы оказать давление на крупнейших игроков. Теперь, когда этот рынок исследуют новые игроки, цифровые гиганты спешат предложить рынку свой «ChatGPT» (отсюда новая версия Microsoft Bing с Copilot и Google Gemini).
Еще один миф, который важно развеять, - это открытость ИИ новых компаний. Действительно, использование их технологий довольно широко открыто для обещственности. Например, «GPT API» компании ChatGPT позволяет любому человеку (за определенную плату) включать запросы в алгоритмы. Другие делают доступными сами модели, позволяя изменять их по своему усмотрению. Однако, несмотря на такую доступность, ИИ остается закрытым: здесь не может быть и речи об открытом или коллективном обучении. Обновления и новое обучение осуществляются исключительно OpenAI и компаниями, которые их создали. Большинство этих обновлений и протоколов стартапы держат в секрете.
Если бы обучение нейросетей было б открытым и коллективным, мы бы увидели сражения (например, с использованием «ботов») за влияние на обучение алгоритма, что негативно сказалось бы на работе системы. Аналогичным образом в Википедии, энциклопедии для совместного пользования, уже много лет предпринимаются попытки повлиять на то, что представляется как «коллективная истина». Существует также вопрос о праве на использование данных.
Закрытие ИИ кажется очень логичным. Но на самом деле это поднимает фундаментальный вопрос о достоверности контента. Качество информации неопределенно. ИИ может быть предвзятым или пристрастным, а плохое обучение может привести к опасному «поведению». Поскольку широкая публика не в состоянии оценить эти параметры, успех ИИ зависит от доверия к компаниям - как это уже происходит с поисковыми системами и другими алгоритмами «больших технологий». Такой «открытый» ИИ полностью пересматривает вопросы этики, ответственности и регулирования. Этими предварительно обученными модулями легко обмениваться, и, в отличие от централизованных платформ ИИ, таких как OpenAI's GPT, их практически невозможно регулировать. Как правило, в случае ошибки мы сможем точно определить, какая часть обучения стала причиной? Было ли это первоначальное обучение или одна из сотен последующих сессий обучения? Может быть, дело в том, что машину обучали разные люди?
Еще один миф, связанный с новым ИИ, касается вопроса влияния на занятость. Несмотря на опасения, что генеративный ИИ заменит человека в целом ряде профессий, на сегодняшний день рано думать о такой перспективе. Каким бы эффективным не казался ИИ для решения повседневных задач и автоматизации процессов, он не способен заменить эксперта или специалиста. ChatGPT или DALL-E могут создавать очень хорошие «черновики», но они все равно должны быть проверены, отобраны и доработаны человеком.
Кроме того, не стоит забывать, что "креативность" ИИ и его способности к глубокому анализу - это своего рода иллюзия. Генеративный ИИ не является "Интеллектом" в буквальном смысле этого слова, но алгоритмом, подбирающим наиболее релеватные ответы. В действительности же внутреннее качество результатов сомнительно. Взрыв информации, контента и деятельности, который станет результатом широкого и открытого использования ИИ, сделает человеческий опыт необходимым как никогда. Это правило «цифровых революций»: чем больше мы оцифровываем, тем больше требуется человеческого опыта.
Появление генеративного ИИ вызвало множество дискуссий и породило немало мифов о будущем технологий и влиянии на человеческую деятельность. Однако реальность такова, что ИИ — это не технологическая революция, а результат постепенного прогресса и изменения способов использования уже известных алгоритмов. Секретность протоколов обучения, ограниченность доступа к этим технологиям и иллюзия открытости — все это подчеркивает, что человек остается ключевым элементом в управлении и контроле ИИ. Вместо замены человеческой экспертизы, развитие ИИ лишь усиливает её значимость, делая нас важными участниками этой новой цифровой эпохи.
Review
оставить отзыв