Доверенная среда искусственного интеллекта

Доверенная среда представляет собой неизменную (изолированную) среду, в которой может быть сохранена любая тайна. Контекстная реклама, как рекомендательные технологии являются в настоящее время самым эффективным элементом рекламы. Однако в реальности данные информационные технологии еще работают недостаточно эффективно. На развитие искусственного интеллекта из федеральных средств предусмотрено 5,2 млрд руб. и еще 2,4 млрд. руб. внебюджетного софинансирования от индустриальных партнеров, среди которых Сбер, Яндекс, МТС и другие.

Использование искусственного интеллекта в настоящее время построено на модели МакКаллока-Питтса и не всегда позволяет ему быть более подвижным и адаптироваться к условиям запросов пользователей в сети интернет. К примеру, пользователь, формируя запрос в поисковой строке браузера может получить контекстную рекламу, не всегда отвечающую основному запросу.

На недавно прошедшей юбилейной конференции НИТО 2025 (г. Москва) в выступлении Масалович А.И. подчеркивалась необходимость формирования доверенной среды при использовании искусственного интеллекта. По мнению эксперта Среднерусского института управления – филиал РАНХиГС Ирины Кружковой, следует рассмотреть искусственный интеллект с позиции ограничения технологии в условиях построения запросов. Эксперт согласна с Андреем Масалович, который настаивает на применении новой, но пока не активно внедряемой модели нейронных сетей Колмогорова-Арнольда (KAN). В настоящее время в мире разработано порядка 80 моделей. Чтобы обеспечить доверенную среду, защиту информации от неправильной трактовки, по мнению эксперта, необходимо быть готовыми к ряду обманных действий.

Искусственный интеллект может обманывать нейросеть посредством применения «зашумления» (снижения количество пикселей) в картинке. Нейросеть рассматривает любую картинку в сети интернет как векторную графику, а не как количество пикселей (четкость) в картинке. А.И. Масалович обозначает такой способ обмана нейросети как «атака уклонением». Таким образом любая нейросеть не сможет рассмотреть картинку с маленьким количеством пикселей. «Отравление данными» - еще один способ привлечения внимания нейронной сети и обмана искусственного интеллекта, которая не может рассмотреть картинку в картинке. То есть в картинку в сети интернет можно встроить другую картинку, и сама нейронная сеть второй рисунок не определит. Однако человек своим зрением эту картинку видит, а искусственный интеллект – рисунок в рисунке не распознает. «Отравленные данные для чат-ботов», означает что человек может вложить в чат не проверенные либо некорректные данные, которые не помогают человеку, а наоборот в негативном ключе представляет информацию, не правильную и лишенную смысла.

Трендами применения искусственного интеллекта не ближайшее время в условиях формирования доверенной среды станут создание и законодательное регулирование концепции недопустимости событий, кратный рост атак на критическую инфраструктуру, искусственный интеллект будет интегрирован в подготовку хакеров, будет создана концепция непрерывного формирования угроз и их управления, активное вхождение искусственного интеллекта в малый и средний бизнес, становление корпоративной бизнес-разведки, создание более плотного взаимодействия между компаниями по обмену информацией об угрозах.

 

 

 



Комментариев пока нет.

Leave a Reply

Прочтите

Орловские инженеры создали уникальные датчики для российских самолётовОрловские инженеры создали уникальные датчики для российских самолётов

Специалисты Орловского государственного университета имени И.С. Тургенева разработали новое поколение бесконтактных датчиков для авиационной промышленности. Как сообщает пресс-служба вуза, эти индуктивные сенсоры детектирования приближения к металлам не