Регулирование ИИ, глобальное управление и проблемы

Регулирование ИИ, глобальное управление и проблемы

Гостевой пост HodlXОтправьте свой пост

 

Будучи опытным ИТ-специалистом с более чем двадцатилетним стажем работы, я видел, как цифровой ландшафт развивается с головокружительной скоростью — подобно гепарду, преследующему свою добычу по африканским равнинам. Но одна технология, которая действительно поразила меня, — это искусственный интеллект (ИИ). Не каждый день натыкаешься на что-то столь же преобразующее, как недавно обнаруженная кость динозавра, верно?

За последние несколько лет быстрое развитие технологии искусственного интеллекта (ИИ) вызвало широкий спектр реакций: от интриг и волнений до опасений и даже страха.

Однако одно можно сказать наверняка: глобальная гонка за доминирование ИИ продолжается.

Это явление можно объяснить двумя основными факторами. Во-первых, это обусловлено существенным снижением вычислительных затрат. Во-вторых, наблюдается быстрое внедрение и разностороннее использование технологий искусственного интеллекта пользователями разных уровней.

Различные предприниматели, корпорации и специалисты в различных отраслях осознают значительные возможности для расширения, экономии затрат, минимизации ошибок и увеличения прибыли, которые предоставляет искусственный интеллект (ИИ).

Одновременно с этим стали известны опасности и основные риски нерегулируемого искусственного интеллекта «Дикого Запада», что делает необходимым установление правил и эффективный надзор за его управлением.

Состояние ИИ

Запуск ChatGPT от OpenAI в 2022 году стал тревожным сигналом для новаторов в сфере искусственного интеллекта.

До того, как он был запущен, в области ИИ было не так много заметных достижений, особенно в общественной сфере, хотя такие технологические гиганты, как Google, Microsoft и Meta, уже были на стороне ИИ.

BlenderBot 3 столкнулся с серьезной негативной реакцией, что привело к удалению Galactica в течение трех дней, в то время как Тэй продержался в Твиттере всего один день.

Как исследователь, погруженный в область искусственного интеллекта, я воочию стал свидетелем того, как коммерческий триумф ChatGPT вызвал цунами инноваций. Эти достижения сейчас в основном связаны с разработкой инструментов и приложений искусственного интеллекта, которые способствуют более интерактивному взаимодействию между пользователями и технологиями.

Google представила Bard (теперь известную как Gemini) в качестве конкурентного ответа, тогда как инвестиции Microsoft в размере 13 миллиардов долларов в OpenAI позволяют им включить технологию генеративного искусственного интеллекта в свою поисковую систему Bing.

Во время «возрождения искусственного интеллекта» не игнорируются различные отрасли. Финансовые учреждения, в частности, интегрируют технологии искусственного интеллекта для обнаружения мошенничества. Эти передовые системы используют такие методы, как поведенческий анализ, понимание естественного языка и выявление закономерностей, для выявления подозрительных действий.

В сфере здравоохранения искусственный интеллект (ИИ) добивается успехов в улучшении ухода за пациентами, помощи в постановке диагноза, интерпретации результатов рентгенографии, обработке медицинских данных и выполнении множества других задач.

Необходимость регулирования

Поскольку все больше и больше компаний интегрируют искусственный интеллект (ИИ) в свои товары, операции и обслуживание клиентов, внимание сместилось в сторону понимания лежащей в основе обработки данных, которая питает эти алгоритмы ИИ и их результаты.

Дезинформация, возможно, остается одним из самых больших реальных рисков, связанных с генеративным ИИ.

В 2022 году в социальных сетях распространилось изображение, на котором утверждалось, что изображен взрыв недалеко от Пентагона. Этот образ на мгновение вызвал волну страха на финансовых рынках, что привело к кратковременному шквалу панических продаж.

Еще более опасным является политический эффект, который могут вызвать новости и дипфейки, генерируемые искусственным интеллектом.

Когда подлинные новостные статьи смешиваются с контентом, созданным искусственным интеллектом, существует риск широкого распространения ложной информации, что потенциально подрывает веру общественности в достоверность информации, которую они потребляют.

Недавний отчет NewsGuard предполагает, что нынешний премьер-министр Израиля сыграл роль в кончине своего психиатра.

Несправедливые модели ИИ могут привести к широко распространенным случаям дискриминации. Исследование, опубликованное Калифорнийским университетом, выявило расовые предрассудки в широко используемом алгоритме здравоохранения.

В более крупных компаниях системы искусственного интеллекта могут значительно усилить влияние встроенных предубеждений, превосходя дискриминационный потенциал традиционных систем.

Хотя сценарий, в котором всемогущий ИИ вытеснит человеческую цивилизацию, может показаться надуманным, изощренное мошенничество определенно является реальностью.

Как криптоинвестор, я заметил тревожную тенденцию: передовые технологии искусственного интеллекта используются злоумышленниками для осуществления весьма убедительных мошенничеств. Кажется, что с каждым днем ​​нам, обычным инвесторам, становится все сложнее различать законные и мошеннические возможности в этом быстро развивающемся цифровом ландшафте.

Меры регулирования ИИ

Понимая, что неконтролируемый искусственный интеллект представляет собой значительный риск, правительства во всем мире становятся все более бдительными в отношении этой проблемы.

Некоторые даже выпустили руководящие принципы и принципы использования технологий искусственного интеллекта — давайте взглянем на некоторые из них.

Закон ЕС об искусственном интеллекте

Европейский Союз был одним из пионеров в разработке законов, касающихся искусственного интеллекта, аналогично тому, как они установили Общий регламент по защите данных (GDPR).

Закон ЕС об искусственном интеллекте устанавливает нормативную базу для искусственного интеллекта в Европейском Союзе, разделяя потенциальные риски, связанные с искусственным интеллектом, на четыре отдельные группы:

  • Неприемлемый риск
  • Высокий риск
  • Ограниченный риск
  • Минимальный риск

Адаптируя особые условия для систем искусственного интеллекта в зависимости от уровня их риска, ЕС стремится создать надежную экосистему искусственного интеллекта, которая повышает доверие и снижает потенциальные неблагоприятные последствия этих технологий.

Примеры технологий искусственного интеллекта, например технологии, включающие тонкие методы контроля и идентификацию личности на основе чувствительных характеристик, таких как политические взгляды (например, стратегии манипулирования выборами и дискриминационные алгоритмы), подпадают под категории, которые считаются неприемлемо рискованными и поэтому запрещены.

Закон также охватывает другие меры постмаркетингового мониторинга и обмена информацией.

Указ США по искусственному интеллекту

2023 год стал важной вехой для меня как криптоинвестора, когда Управление по науке и технологической политике Белого дома представило свой «План Билля о правах ИИ». Кроме того, Национальный институт стандартов и технологий опубликовал свою «Систему управления рисками ИИ». Эти инициативы были направлены на разработку руководящих принципов, которые отдают приоритет частной жизни, справедливости и подотчетности в области искусственного интеллекта, устанавливая новый стандарт этической разработки и использования ИИ. Этот шаг не только обеспечивает прозрачность, но и укрепляет доверие в экономике, основанной на искусственном интеллекте.

Как аналитик, я считаю, что суть значительных достижений в регулировании ИИ заключается в указе президента Байдена под названием «Обеспечение безопасного, надежного и заслуживающего доверия развития и использования искусственного интеллекта».

Приказ охватывает восемь областей политики, среди которых «обеспечение новых стандартов безопасности и защиты ИИ, продвижение справедливости и гражданских прав потребителей, а также защита конфиденциальности граждан от рисков, связанных с ИИ».

Регулирование искусственного интеллекта в Китае

Китай начал работать над законами об ИИ в 2021 году, начиная с «Нового этического кодекса генеративного ИИ».

В Китае различные нормативные акты, такие как «Положения о глубоком синтезе», «Управление алгоритмическими рекомендациями в информационных службах Интернета», «Временные меры по управлению службами генеративного искусственного интеллекта» и «Закон о защите личной информации», направлены на то, чтобы очертить точку зрения социалистической администрации в отношении развития, применения, и управление безопасностью технологий искусственного интеллекта в Китае.

Проблемы регулирования ИИ

  • Темпы роста технологий. Быстрые темпы ускорения инноваций в области искусственного интеллекта затрудняют правительственным постановлениям прогнозирование или введение в действие комплексной системы регулирования. Закон ЕС об искусственном интеллекте пытается решить эту проблему, используя различные уровни классификации. Однако быстрое развитие технологий искусственного интеллекта может опережать существующие нормативы, что потребует постоянной гибкости и оперативности реагирования.
  • Бюрократическая путаница. Законы, регулирующие ИИ, во многих случаях опираются на другие существующие правила, взаимодействуют и дублируют их. Иногда это может вызвать бюрократическую путаницу при реализации на местном уровне и даже затруднить международное сотрудничество, особенно из-за различий в трансграничных нормативных стандартах и ​​системах.
  • Баланс между регулированием и инновациями. Регулирование технологий искусственного интеллекта в некоторых случаях может задушить инновации и ограничить исследовательский рост. Решение о том, какие меры регулирования благоприятны для инноваций, а когда нет, может оказаться непростой задачей с тяжелыми последствиями.

Округление вверх

Совместные усилия правительств, влиятельных технологических деятелей и специализированных специалистов из частного сектора необходимы для создания эффективных правил в области искусственного интеллекта (ИИ), поскольку это поможет поддерживать этические принципы, которые будут синхронизированы с быстрым технологическим прогрессом.

С другой стороны, не менее важно найти сбалансированный подход, который сводит к минимуму возможные опасности ИИ и одновременно максимизирует его преимущества для благосостояния человечества.

Дэниел Келлер является генеральным директором InFlux Technologies и имеет более чем два с половиной десятилетия опыта работы в сфере ИТ в таких секторах, как технологии, здравоохранение и благотворительные организации. Он преуспевает в управлении инфраструктурой, заполнении оперативных пробелов и эффективной реализации технологических инициатив. Философия Дэниела как предпринимателя, инвестора и сторонника новаторских технологий – «от людей, от людей» – хорошо согласуется со многими членами команды Flux Web 3.0. Он активно занимается гуманитарными проектами, направленными на улучшение общества.

 

Следуйте за нами в Twitter Facebook Telegram

Смотрите также

2024-11-14 07:42