Изучение ИИ в киберфизических системах

Май 25, 2023
Изучение ИИ в киберфизических системах

Вопрос : На Sensors Converge 2023 вы выступаете с основным докладом на тему «ИИ в критически важных киберфизических системах», и в нашем превью к конференции упоминается термин «киберфизический континуум».

Не могли бы вы дать определение термину и, что важно, создает ли кибер-физический континуум более серьезные проблемы, чем те, с которыми мы сталкивались в недавнем прошлом?

Ферсман: Термин «киберфизический континуум» произошел от встроенных систем, где каждый встроенный физический контроллер более крупной системы имеет соответствующий фрагмент кода, определяющий его поведение.

Кибер-физические системы представляют собой сетевые встроенные системы, в которых взаимодействие между физической и кибер-частями играет важную роль.

Сегодня физические системы могут быть представлены цифровыми двойниками, отражающими каждое состояние физической системы.

Прелесть этого заключается в том, что для того, чтобы гарантировать, что система соответствует требуемым свойствам, таким как функциональные свойства или надежность, не нужно запускать тесты на физической системе, а скорее моделировать и проверять ее кибер-часть.

Чем более детально кибер-часть системы описывает физическую часть, тем лучше мы будем контролировать физическую часть.

Вопрос : Мы всегда хотели взаимодействия частей в системе, но стало ли это внезапно более обременительным или сложным?

И есть ли у вас понимание того, какие проблемы или опасности мы можем увидеть без надлежащего взаимодействия?

Есть ли известные примеры конфиденциальности/безопасности, которые вы можете назвать?

Ферсман: По мере того, как вещи становятся все более взаимосвязанными, размеры систем растут.

Можно представить себе переход от моделирования и анализа одного контроллера в автомобиле к модели полного автомобиля с сотнями таких контроллеров, к модели парка автомобилей, к интеллектуальной транспортной системе, в которой автомобили взаимодействуют с дорожной инфраструктурой и телекоммуникационной сети, к умному городу.

А теперь представьте, что вы пытаетесь проверить корректность всей системы вплоть до уровня функциональности контроллера — это очень сложная задача.

Демонстрация физической функциональности через API-интерфейсы программного обеспечения открывает большие возможности, но также сопряжена с угрозами безопасности и конфиденциальности; поэтому механизмы для предотвращения атак на систему безопасности должны действовать с первого дня.

Кроме того, каждый раз, когда в такой системе используются алгоритмы ИИ,

Вопрос : У вас обширная тема, но ИИ уже много лет находится в центре внимания, особенно с декабря, когда появились ChatGPT, LLM и генеративный ИИ.

Может быть, сами темпы внедрения приводят к меньшей заботе о таких основах, как безопасность, конфиденциальность и защищенность?

Вы беспокоитесь, что это может быть так?

Ферсман: Внедрение ChatGPT действительно породило новую волну ажиотажа, осведомленности о том, на что способен ИИ, и в то же время усилило беспокойство в обществе.

OpenAI выпустил GPT-3 некоторое время назад, и многие компании, включая Ericsson, уже несколько лет работают с генеративным AI/LLM.

Это мощные инструменты, и, как и в других методах искусственного интеллекта, они не будут работать должным образом, если будут снабжаться искаженными данными. Это повышение осведомленности о возможностях ИИ требует повышенного внимания к методам, гарантирующим свойства надежности методов ИИ.

Вопрос : Эффективность ИИ и оптимизация производительности — это цель многих приложений ИИ, но наблюдаем ли мы высокую степень оптимальной производительности для киберфизических приложений?

Это что-то вроде возможностей пяти девяток? Это вообще цель?

Ферсман : Устойчивые телекоммуникационные сети с высоким уровнем доступности достижимы даже без ИИ.

Роль ИИ в телекоммуникациях заключается в достижении более высокой производительности при тех же ресурсах с точки зрения качества обслуживания, а также выбросов CO2, а также в оптимизации сетевых операций для снижения времени простоя за счет предотвращения.

Вопрос : Будут ли Ericsson или ваши партнеры работать над чем-то вроде того, что недавно предложила Nvidia, — программного обеспечения под названием NeMo Guardrails, которое предназначено для того, чтобы новые приложения на основе LLM были точными, подходящими, актуальными и безопасными.

В нашем рассказе рассматривалась концепция.

Ферсман: Надежные методы защиты любых технологий ИИ, включая LLM, развернутых в производственной среде, имеют первостепенное значение.

Эрикссон принял руководящие принципы этики Европейского союза в отношении надежного ИИ, включая участие человека и надзор, техническую надежность и безопасность, конфиденциальность и управление данными, прозрачность, разнообразие, недискриминацию и справедливость, социальное и экологическое благополучие и подотчетность.

Наши методы надежного искусственного интеллекта применяются к алгоритмам искусственного интеллекта, которые используются в наших продуктах и ​​услугах, включая алгоритмы на основе LLM.

Вопрос : Есть ли здесь какой-то стандарт, который имеет смысл? Я не думаю, что ставка на Nvidia или другую компанию удовлетворит все потребности, верно?

Ферсман: Хотя стандарты всегда играют важную роль для поставщиков телекоммуникационной инфраструктуры в достижении функциональной совместимости, в надежных приложениях ИИ большую роль играют сертификаты и правила.

Телекоммуникационная система действительно частично полагается на наших партнеров, таких как Nvidia, но для достижения высочайших гарантий качества всей системы, предлагаемой потребителям и предприятиям, мы обязательно проверяем и сертифицируем наши методы искусственного интеллекта, и аналогичным образом это выполняется с помощью программного обеспечения, которое мы разрабатываем.

Однако технология этой сертификации отличается от сертификации программного обеспечения.

Вопрос : Хотя это может быть не по теме, что вы думаете о федеральном законодательстве, которое в целом защищает конфиденциальность данных для физических лиц?

Это радикальный подход, который некоторым поставщикам может быть трудно удовлетворить.

Если люди имеют право на все свои данные, как это может привести к обучению ИИ?

Ферсман: Важным руководящим принципом является то, что люди должны контролировать свои данные.

Уровень понимания влияния ИИ на общество повышается, и это приводит к лучшему пониманию преимуществ совместного использования данных, а также к более четкому пониманию того, какими данными делиться нельзя.

Для оптимизации телекоммуникационных систем с помощью ИИ мы часто используем синтетические данные и агрегированные данные о пользователях.

Вопрос : И наконец, как вы ответите на ключевой вопрос, поставленный в аннотации к основному докладу, который спрашивает, как можно использовать ИИ для оптимизации производительности систем?

Есть ли реальные примеры?

Ферсман: Сегодня у нас есть много реальных примеров. Как и в случае с телекоммуникациями, вы замечаете это только тогда, когда оно не работает.

Системы на базе ИИ предотвращают ухудшение качества обслуживания и заранее оптимизируют эти ячейки. Инспекции объектов с помощью ИИ используют дроны и распознавание изображений для обнаружения возможных сбоев и уменьшения количества ненужных подъемов на вышки.

Мы используем ИИ для оптимизации использования инфраструктуры, повышения производительности и минимизации выбросов CO2 в телекоммуникационных сетях.

Елена Ферсман, доктор философии, вице-президент и руководитель глобального акселератора искусственного интеллекта Ericsson, а также профессор по настройке киберфизических систем Ericcson.

Мы используем cookie-файлы для наилучшего представления нашего сайта. Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять