Компании из России оценили опасения Маска и Возняка из-за ChatGPT

0
57

Компании из России оценили опасения Маска и Возняка из-за ChatGPT В «Сколково» в ответ на призыв остановить обучение нейросетей выступили за создание правил Развитие ИИ не стоит останавливать, но следует ограничить его правилами и этическим сводом, считают опрошенные РБК топ-менеджеры российских ИТ-компаний. Ранее приостановить тренировки систем мощнее GPT-4 призвали Маск и Возняк

Компании из России оценили опасения Маска и Возняка из-за ChatGPT

Для мощного искусственного интеллекта (Artificial intelligence, AI) необходимо разработать регулирование и этические правила, вместе с тем скорость его замещения людей определенных профессий сильно переоценена. Об этом заявил РБК старший вице-президент по инновациям фонда «Сколково» Кирилл Каем, комментируя открытое письмо основателей технологических компаний с призывом приостановить обучение ИИ.

«Разумеется, все эти краеугольные изменения потребуют изменения как регулирования разработок, внедрения, правил использования AI, так и принятие определенного свода этических вопросов. Возможно, авторитеты, подписавшие открытое письмо, хотят дать первый и сильный толчок таким изменениям»,— сказал Каем. По его мнению, в дальнейшем принимать и изменять правила нужно будет постоянно, чтобы они успевали за прогрессом и новыми возможностями ИИ.

ЧИТАТЬ ТАКЖЕ:  Аналитики оценили убыток крупнейших десяти банков в кризисный 2022 год

Компании из России оценили опасения Маска и Возняка из-за ChatGPT

Каем согласился с авторами письма в том, что искусственный интеллект поменяет рынок труда, но скорость этого замещения сейчас значительно переоценена. «Это не один десяток лет. Во-вторых, это изменение сфокусирует рынок труда на других профессиях, где AI пока не силен: творческие специальности или специальности, которые требуют большого вовлечения, эмпатии— медицинская помощь в части ухода и общения с пациентами, образование, часть индустрии развлечений»,— заявил он. На стыке ИИ— человек, возникнет ряд новых специальностей, связанных с обучением, контролем и принятием ответственных решений, допустил он.

Каем считает, что во многих отраслях ИИ останется помощником, будет анализировать большие объемы данных, предлагать сценарии, рассчитывать вероятности, но конечное решение будет оставаться за человеком.

ЧИТАТЬ ТАКЖЕ:  «Росатом» пообещал «выставить счет» после отказа Финляндии от проекта АЭС

Компании из России оценили опасения Маска и Возняка из-за ChatGPT

Технический директор Smart Engines (разрабатывает программное обеспечение для распознавания документов) Дмитрий Николаев считает, что властям следовалобы ограничить исследования ИИ с целью защиты базовых прав людей, «ввести понятные правила, которые запретят вредоносное использование ИИ». Он отметил, что при использовании искусственного интеллекта отсутствует законодательная база на запрет их применения в мошеннических целях, «проведение психологических атак на людей». Кроме того, продолжил Николаев, хаотичное развитие ИИ несет прямой экологический ущерб, поскольку на обучение моделей расходуются мегаватты электроэнергии. При этом, подчеркнул Николаев, пауза в обучении мощного ИИ на полгода, которую предлагают авторы письма, ничего не изменит, поскольку остановить прогресс невозможно.

Читайте на РБК Pro Как предотвратить выгорание и повысить эффективность сейлзов Как инвестору подготовиться к новому мировому кризису. Мнения аналитиков Отмена соглашения об избежании двойного налогообложения: что это значит Salesforce увольняет 8 тыс. человек. Что стало с ее «семейной» культурой

Руководитель департамента машинного обучения дирекции по ИИ и цифровым продуктам «ВымпелКома» (работает под брендом «Билайн») Дмитрий Ермилов призвал думать не об остановке развития искусственного интеллекта, а об ограничении использования таких систем. «То есть не предоставлять открытый доступ всем желающим к таким инструментам, а давать его, например компаниям для промышленного использования. Такой такой барьер позволит оградить общество от многих рисков, которые возникают при работе обычных пользователей с нейросетями»,— отметил Ермилов.

ЧИТАТЬ ТАКЖЕ:  «Газпром» объявил о продаже своих офисов и санаториев в двух регионах

Компании из России оценили опасения Маска и Возняка из-за ChatGPT

Ранее на сайте Future of Life появилось открытое письмо, которое подписали более 1 тыс. человек, в том числе основатель Tesla Илон Маск, сооснователь Pinterest Эван Шарп и сооснователь Apple Стив Возняк. Они призвали прекратить хотябы на шесть месяцев тренировки систем мощнее GPT-4. Подписанты указали, что системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять опасность для общества и задались вопросом, должныли люди «рисковать потерей контроля над цивилизацией».

Авторы Теги Подпишись на VK РБК Получайте новости быстрее всех

Компании из России оценили опасения Маска и Возняка из-за ChatGPT