Нейросеть обучили развивать собственную «иммунную систему», чтобы предотвращать ввод подозрительных данных Статьи редакции
Новая технология работает по тому же принципу, что и адаптивная иммунная система человека.
Глубокие нейронные сети используются для решения самых разных задач классификации — идентификация изображений и машинное зрение, языковой перевод и обнаружение мошенничества. Однако их можно направить по неправильному ходу «мысли», немного скорректировав входные данные — например, настроить ИИ, разрабатывающий лекарства, не отсеивать токсичные вещества, а наоборот искать их. Команда разработчиков из Мичигана разработала систему обучения нейросетей, которая защищает их от подобных вмешательств.
RAILS представляет собой новый подход к состязательному обучению, который смоделирован по образцу адаптивной иммунной системы, работающей иначе, чем врождённая.
В то время как врождённая иммунная система осуществляет общую атаку на патогены, адаптивная может генерировать новые клетки, предназначенные для защиты от конкретных патогенов. Оказывается, глубокие нейронные сети, уже вдохновлённые системой обработки информации в мозгу, тоже могут воспользоваться преимуществами этого биологического процесса.
RAILS работает, имитируя естественную защиту иммунной системы, чтобы идентифицировать и информировать о подозрительных входных данных нейронной сети. Она эффективнее ранее разработанных методов машинного обучения, используемых для борьбы с состязательными атаками
Чтобы начать его разработку, команда биологов изучила, как адаптивная иммунная система мышей реагировала на антигены. В эксперименте использовались ткани генетически модифицированных мышей. Команда отслеживала развитие защитных клеток, которое происходит по принципу «проб и ошибок».
Или просто лидары поставить и прекратить страдать ¯\_(ツ)_/¯
Но у Маска свой путь
Как лидар отличит знак 3.2 от 3.1?
Покажи о каких ты, не понял
Эти, и любые другие похожие по форме, с наклейками, или наполовину прикрытые деревом
Во первых есть форма – стопы разные (в статье они по форме видны), во вторых есть база знаков которая обновляется когда автопилот проезжает по какой-то местности (помимо гор баз), в третьих визуальный детект все так же важен, но делать что-то только на нем это ошибка имхо.
Видели же все уже видео где тесла луну за знак или светофор принимает и тп.
не спец в этом, но всегда было интересно, почему в нейронках нет "отсекателя ошибок", каких то рамок. Очень часто в таких демонстрациях (определённые по картинке) кости, начинают скакать и отделяться от других, почему это нельзя ограничить? тож самое с определением лица, ну как ты писал, с луной.
Фильтрация есть и можно ограничить, но это не задача разработчиков конкретной нейронки уже, а тех кто готовит ее к проду
то есть в модели не может (не нужна) быть инфы, что кость 1 не отделима от кости 2, например? обычно так не делают, а ограничивают уже на "проде"?
Зависит от того какие цели стоят – если нет ограничения по времени работы алгоритма, то конечно в условной модели может быть такая фильтрация
В целом, все зависит сильно от контекста, способов треньки и самих слоев – как разработчики сделают, так и будет в итоге, так как все реализуемо
Работа со скелетами не моя тема, но видел алгоритмы где все было хорошо в этом плане
Вода с водой.
Порфирьевич писал текст?
А не проще нагенерировать знаков с шумом, по ним обучить сеть, и дальше отталкиваться от этого? Не совсем понял из статьи, какой именно у них подход.
Комментарий недоступен
Комментарий удален.
Тупые просто