Кибербаталии 2018, эпизод первый

Аватар пользователя Sedov
Автор: Седов Олег, главный редактор BISA

Сегодня я выношу на суд читателей новый для меня формат подачи материала. Надеюсь он найдет своего читателя, например с гаджетом в метро, которому нужно успеть прочитать текст от одной станции до другой. А для меня важно в погоне за форматом, не потерять важного и достойного для публикации содержания.

И пожалуйста, не забывайте голосовать за участников кибербаталий тут: http://bis-expert.ru/cyberfight/programm

Для всех нас это важно!

Весьма увлекательной оказалась полемика Тимура Идиаттулова  (ВОЛГАБАС РОБО ЛАБ) и Татьяны Постниковой (ЛИИС «Инженерные решения») в рамках темы «Глобальные последствия ненадлежащей составляющей кибербезопасности технотрендов» – модератор Татьяна Станкевич («Газинформсервис»).

Если есть белая линия, проходящая в нужном направлении, то автопилоту больше ничего не нужно. Небольшое отклонение в дорожной разметке ему не помешает.

В случае доставки пиццы дронами я бы больше беспокоился не о том, что ребята с луками могут сбивать дроны, а о том, чтобы дрон не упал, скажем, на детский садик.

Опасность – не в механических воздействиях, а в том, что произойдет, если искусственный интеллект попадет в ситуацию, с которой он в принципе не может справиться. Что произойдет, если два дрона столкнутся, доставляя пиццу одновременно в одно место? В естественных для людей, но неожиданных для машин ситуациях состоит основная проблема.

Беспилотный автомобиль сбил женщину – это факт. Но ни один водитель-человек тоже не успел бы отреагировать в такой ситуации. Представьте, вы едете по темной дороге, и вдруг человек с велосипедом перебегает дорогу спиной к вам в неположенном месте. Вы успеете отреагировать? Вот и беспилотник повел себя, как обычный водитель.

Технологии переднего края практически готовы. Однако общество, люди не готовы довериться, принять созданное для них разработчиками искусственного интеллекта.

«Сколково» – это цифровой рай. Это – хорошие дороги, по которым изредка проезжают машины, люди, которые здороваются друг с другом… Это – картинка будущего, которое показывали в советских фантастических фильмах. Там никто не попытается отломить роботу руку, и в 2020 г. там все будет хорошо с роботами и беспилотниками. Но проблема – не в Сколково, а в Казанском вокзале.

Что делают в России люди, которые знают, что к ним приближается беспилотник? Фотографируют? Нет! Они выбегают на дорогу перед беспилотником, чтобы узнать, остановится он или нет.

Если площадь вашего дома – 300 м кв., то у вас, наверняка, есть приходящий обслуживающий персонал (клиринг, обслуживание кондиционеров и пр.). Этот персонал должен оберегать ваши данные, понимать, что ставит их и вашу личную безопасность под угрозу, когда, например, попадает в серверную комнату. Данный вопрос решается преимущественно путем обучения, а ИТ для этого не требуются.

«Как вы занимаетесь Кибербезопасностью?» – «Панически!». Если мы догадываемся, что есть какой-то вектор атаки, то пытаемся с ним справиться. Как? В панике бежим. Изначально запланировать все возможные виды атак, все пути проникновения в систему абсолютно невозможно.

Диспетчер беспилотного автопарка в любой момент должен знать, что происходит с транспортным средством, чтобы не возникло такой же ситуации, как с беспилотником Uber. Если диспетчер увидел, что происходит нечто непредвиденное, он должен нажать красную кнопку и остановить машину удаленно.

Единственный способ бороться с ошибками – получать обновления. Это можно делать дорого, с помощью выездного мастера с флешкой, либо дешево, через Интернет. Но если вы получаете обновления через Интернет, то о какой кибербезопасности можно говорить! В таких случаях мы исправляем ошибки, заранее зная, что возникнут новые проблемы.

Беспилотник везет не в то место, куда нужно попасть. Но «не туда» – это может быть фонарный столб, стоящий рядом с «тем» местом.

Мы хотим получить от искусственного интеллекта то, что он нам не может дать. Мы пытаемся его заставить принимать решения так же, как это делает человек. Однако человек не только учится с рождения, но и генетически приспособлен к принятию решений. А искусственный интеллект, как правило, имеет внутреннюю жесткую логику в нейронной сети. И если мы ставим перед ним ту задачу, которую он в принципе не может решить (например, «подпрыгни!»), то как он ее выполнит?

Нейронная сеть учится сама. Так иногда говорят, но она сама не учится. Вы сами должны подготовить для нее обучающую выборку – набор данных, который ее научит. И если вы будете учить ее неправильно или не тому, чему нужно, то результат вас удивит.

Мы до сих пор не понимаем, что изобрели, – речь идет об искусственном интеллекте. А вот когда мы начнем понимать его лучше, роботы станут «существами», которых мы не боимся.

Каждое устройство Интернета вещей – это маленький мостик в ад безопасности.

Не забывайте голосовать за лучших спикеров и модераторов! 

http://bis-expert.ru/cyberfight/programm

 
Комментарии в Facebook
 

Вы сообщаете об ошибке в следующем тексте:
Нажмите кнопку «Сообщить об ошибке», чтобы отправить сообщение. Вы также можете добавить комментарий.