Передача l на автомате: АКПП — автоматическая коробка передач

Содержание

АКПП — автоматическая коробка передач

24.07.2014

Об автоматической коробке передач (в народе автомат) мечтают все девушки. Так как переключение скоростей происходит без участия водителя. Давайте рассмотрим АКПП в машине.

В автоматической коробке передач, в основном, имеются 4 передних и 1 задняя передача. Конкретные передачи выбираются автоматически, в зависимости от положения рычага селектора.

Диапазоны автоматической коробки передач

Когда ключ зажигания находится в положении ON (вкл), положение рычага селектора будет отображаться на приборной панели.

Р (парковка).

Устанавливать коробку передач в режиме Р (парковка) можно только после полной остановки автомобиля. В этом положении коробка передач блокируется, и передние колеса не могут вращаться.

Не пользуйтесь положением Р (парковка) как стояночным тормозом. Всегда провейте надежность фиксации рычага селектора в положении Р (парковка) и полностью включайте стояночный тормоз.

Переключение в положении Р (парковка) во время движения автомобиля может привести к поломке коробки передач.
Не пользуйтесь положением P (парковка) как стояночным тормозом.

R (задний ход).

Это положение для движения автомобиля задним ходом.

N (нейтраль).

Колеса и коробка передач разблокированы. Автомобиль, если не включен стояночный или рабочий тормоз, будет свободно катиться даже под малейший уклон.

D (движение).

Это обычное положение для движения вперед. Коробка передач будет автоматически переключаться в последовательности из 4-х передач, обеспечивая наилучший режим с точки зрения экономии топлива и мощности.

Для того, чтобы обогнать автомобиль или при движении на подъем, нажмите полностью педаль акселератора, что приведет к автоматическому переключению на более низкую передачу.

3 (третья передача).

Используется для буксировки прицепа во время подъема на склон или для торможения двигателем на спуске вниз.

При положении рычага “3” происходит автоматическое переключение между 1-й, 2-й и 3-й передачами. Это означает, что переключение на 4-ю передачу осуществляется при скорости автомобиля, превышающей определенное значение, чтобы предотвратить превышение допустимых оборотов двигателя.

Для возврата в нормальное положение следует перевести рычаг селектора в положение “D”.

2 (вторая передача).

Используется для движения по скользкой дороге, для преодоления подъема или торможения двигателем во время спуска вниз. При положении рычага селектора “2” происходит автоматическое переключение между первой и второй передачами.

Это означает,  что переключение на 3-ю передачу не осуществляется. Однако переключение на третью передачу осуществляется при скорости автомобиля, превышающей определенное значение, чтобы предотвратить превышение допустимых оборотов двигателя. Для возврата в нормальное положение следует перевести рычаг селектора в положение “D”.

L (пониженная передача)

Используется для движения на очень крутой подъем или для торможения двигателем на крутом спуске. Когда происходит переключение на пониженную передачу “L”, коробка передач будет работать в режиме второй скорости до тех пор, пока скорость движения не уменьшится достаточно для включения пониженной передачи.

Не превышайте скорость движения 50 км/ч на пониженной передаче. Из положения “L” можно включить только режим первой передачи. Тем не менее, переключение на вторую передачу выполняется, когда автомобиль превышает определенную скорость, и по мере роста скорости КПП будет переключаться до 3-й передачи, чтобы предотвратить превышение допустимых оборотов двигателя.

Система блокировки переключения передач

Для вашей безопасности в автоматических коробках имеется система блокировки переключения передач, которая не позволяет переключиться из положения “Р” (парковка) или “N” (нейтраль) в положение “R” (задний ход), если не нажата педаль тормоза. Чтобы переключиться из положений “Р” (парковка) или “N” (нейтраль) в положение “R” (задний ход):

1. нажмите и удерживайте нажатой педаль тормоза.
2. переместите рычаг селектора.

Если при нахождении рычага селектора в положении “Р” (парковка) периодически нажимать и отпускать педаль тормоза, то вблизи рычага может слышаться стук. Это нормальное явление.

Примеры эффективного вождения

  • Никогда не переводите рычаг селектора из положения “Р” (парковка) или “N” (нейтраль) в какое-либо другое положение при нажатой педали акселератора
  • Никогда не переводите этот рычаг в положение “Р” (парковка) во время движения автомобиля.
  • Перед переключением в положение “R” (задний ход) или “D” (движение) автомобиль должен быть полностью остановлен.
  • Никогда не двигайтесь под уклон накатом (на нейтрали). Это может быть очень опасно.
  • Никогда не выключайте передачу во время движения.
  • Не водите автомобиль “на тормозах”. Это приводит к их перегреву и повреждению.
  • При остановке обязательно задействуйте стояночный тормоз. Не надейтесь на то, что установка рычага в положении “Р” (парковка) удержит автомобиль от движения.
  • Будьте предельно внимательны при движении на скользкой поверхности. Особая осторожность требуется при торможении, ускорении или переключении передач. Резкое изменение скорости на скользкой дороге может привести к потере сцепления ведущих колес с дорогой и потере управления автомобилем.
  • Наилучшие характеристики автомобиля и максимальная экономия топлива достигаются при плавном нажатии и отпускании педали акселератора.

Движение на подъем из неподвижного состояния

Чтобы начать двигаться на подъем из неподвижного состояния, нажмите педаль тормоза и переведите рычаг селектора в положении “D” (движение). Выберите подходящую передачу в зависимости от массы груза и крутизны подъема и отпустите стояночный тормоз.

Плавно нажмите педаль акселератора, одновременно отпуская педаль рабочего тормоза.

П.С. Перед тем как перевести рычаг селектора в положение D (движение) или R (задний ход), всегда проверяйте, нет ли поблизости людей, и в особенности – детей.

Прежде чем поставить машину на стоянку, всегда ставьте рычаг селектора в положение Р (парковка), включайте до конца стояночный тормоз и остановите двигатель. Если не принять этих мер предосторожности, автомобиль может резко и неожиданно прийти в движение.

Для обеспечения нормальной и безопасной эксплуатации нажимайте педаль тормоза при переключении из положения “N” (нейтральное) или “Р” (парковка) на переднюю передачу или “R” (задний ход).

Полностью нажмите педаль тормоза, чтобы переместить рычаг селектора из положения “Р” (парковка) в любое другое положение.

Всегда можно перейти из положения “R”, “N”, “D”, “3”, “2”, “L” в положение “Р”. Во избежание повреждения коробки передач, автомобиль перед этим следует полностью остановить.

Как завести машину с автоматом (АКПП)

Тормозная система автомобиля

Об автомобиле и его содержимом

Зачем автоматическим коробкам режимы L, 2 и 3? | Об автомобилях | Авто

У некоторых автоматических трансмиссий есть положения селектора, которыми почти никогда не пользуешься. В каких случаях они необходимы или опасны, и почему современные автоматы от них избавились.

Автоматические коробки передач в течение своей истории проходили через многие усовершенствования. Менялось количество планетарных рядов, добавлялись новые ступени и режимы работы. А с выходом на рынок новых поколений трансмиссий, упрощалось и управление. Поэтому для некоторых водителей, пересаживающихся с нового легкового автомобиля на поезженный внедорожник, или наоборот, странные надписи на прорези рычага АКПП вызывают вопросы. Зачем там цифры 2, 3 или латинская буква L, а также дополнительная кнопочка сбоку в виде снежинки? 

Фото: Shutterstock. com

Рудименты прошлого

Эти буквы пришли из далеких времен, когда об управляющей электронике производители автомобилей даже не слышали. Автоматические коробки меняли ступени в зависимости от давления масла внутри исполнительных механизмов. Если давление масла превышало определенное значение, срабатывало реле и фрикционы переводили планетарный ряд в новое положение. 

Но при выезде на бездорожье, во время пробуксовки автомат не понимал, что автомобиль увяз в грязи. При подаче газа он все так же мирно перебирал передачи вместо того, чтобы позволить водителю раскрутить мотор до «красной зоны» и выбраться из ловушки. Поэтому инженеры ввели механический ограничитель переключения ступеней. При переводе селектора в L коробка блокировала исполнительный механизм переключения ступеней, и автомобиль полз по грязи только на первой передаче. Позднее к этому режиму добавились еще два, помогающие пользоваться гидромеханическим автоматом более корректно. 

При переводе рычага в позицию 2 машина ползала только на первой и второй, а в позиции 3 коробка не переключалась выше 3 ступени. Это было удобно при активной езде, а также при транспортировке прицепа, когда требуется все время удерживать двигатель на высоких оборотах, где вырабатывается самая высокая мощность и крутящий момент. В третьей позиции селектора можно ездить на подъемах и при поездках на вершины холмов в регионах с горным ландшафтом. Кроме того, в этих ограничительных режимах было удобно тормозить двигателем при спуске с гор по извилистым дорожкам с множеством поворотов и виражей. Но ездить постоянно на них все же нельзя, так как идет повышенный износ механики трансмиссии. 

Новое управление 

Но с выходом на рынок усовершенствованных трансмиссий, надобность в перечисленных режимах отпала. Теперь автоматы имеют электронные блоки управления, которые научены распознавать буксование и даже движение по различным участкам дорог с переменным покрытием. Электроника корректирует работу узлов и агрегатов, если почувствует под колесами лед, снег или гравий. Кроме того, на многих автоматических коробках теперь есть ручной режим, позволяющий самостоятельно выбирать передачи и переключать их по мере надобности. А еще в бортовой электронике прописаны программы движения в различных средах. Если выставить программу езды по бездорожью, то компьютер перенастроит не только автомат, но и акселератор, двигатель, рулевое управление и даже подвеску. В этом случае коробка будет работать только на пониженных ступенях. Тем самым режим L уже не актуален и его убрали с кулисы. 

В спортивном режиме коробка автоматически будет перещелкивать ступени только после достижения двигателем оборотов максимальной тяги. А при активации режима «Снег» трансмиссия запустит щадящую программу, будет стартовать со второй во избежание пробуксовки, но не позволит активировать высшие ступени на скоростях от 40 до 80 км/ч, чтобы сохранить тягу на колесах для противодействия возможным рысканиям машины. 

В общем, функционал автоматических трансмиссий существенно расширился, и надобность в старых режимах 2, 3 и L отпала. Однако они все еще встречаются на автомобилях с пробегом или на лицензионных копиях старых трансмиссий, которые можно увидеть на китайской технике. Есть они и на старых рамных внедорожниках, не обновлявшихся больше 10 лет, куда идут старые проверенные трансмиссии вкупе с понижающей коробкой и механическими блокираторами дифференциалов. Новые электронные коробки таким машинам противопоказаны. 

Смотрите также:

Переключаем АКПП правильно. Топ-5 причин поломки «автомата»

Казалось бы, справиться с автоматической коробкой переключения передач сможет кто угодно. Особых навыков не надо: поставил селектор на режим «D» и можно ехать. Но нередко даже профессионалы допускают ошибки, которые могут привести к дорогостоящему ремонту.

Популярность автомобилей с АКПП у водителей-новичков, особенно женского пола, не вызывает никаких сомнений. Да, обучение на «автомате» обойдётся вам немного дороже, но возможно стоит переплатить, хотя бы ради сохранения миллиардов нервных клеток? Простоту и удобство в управлении также никто не отменял. А в условиях столичных пробок коробка-«автомат» едва ли не единственный выход, чтобы избежать пытки, дергая рычаг каждые несколько минут.

Зачем на «автомате» рычаг управления?

Как управлять автоматической КПП, можно объяснить буквально в двух словах. Переключение передач выполняется в автоматическом режиме, а водителю нужно лишь давить на педаль акселератора или тормоза. Нажал ту, что правее, – автомобиль поехал; ту, что полевее, – машина останавливается. С этим справится даже ребёнок.

Рычаг управления АКПП нужен для переключения режимов работы трансмиссии. Изучим основные.

Режим «P» (сокращённо от parking — стоянка) представляет собой стояночный тормоз. При нём блокируются все колёса, даже при заведённом двигателе, поэтому машина остаётся стоять на месте. Этот режим применяется при стоянке или прогреве двигателя после запуска. Включать parking во время движения автомобиля недопустимо. Также не стоит этого делать при каждой остановке на светофоре или в пробке – достаточно будет воспользоваться педалью тормоза. Стоит также отметить, что режим «P» – не равен ручному тормозу. Штифт, который удерживает колёса от движения, очень тонкий, так что при стоянке на уклоне пользуйтесь «ручником»: вдруг блокировку просто-напросто сорвёт.

Далее следует режим «R» (сокращённо от reverse — обратный), который включает заднюю передачу.

Следующий режим «N» (от neutral — нейтральный), при котором автомобиль может свободно катиться, если не нажимать на педаль тормоза. Он используется при буксировке или при перемещении машины с заглушённым двигателем. Например, если вы заезжаете на бегущую ленту на бесконтактной автомойке.

Ну и наконец, самый основной режим движения – «D» (сокращённо от drive — ехать), при выборе которого автомобиль будет двигаться вперёд, а передачи переключаться в автоматическом режиме. На некоторых машинах также существуют дополнительные режимы, связанные с drive. Они обозначаются цифрами и используются для езды по бездорожью, на гололёде, на крутых склонах в горной местности и т.п. Сюда же примыкает режим «L» (от англ. low – низкий) – движение вперёд на пониженной передаче. Его нельзя включать при скорости более 30 км/ч, иначе машину попросту занесёт. Нередко вместо «L» можно увидеть обозначение «B» (сокращённо от bottom — дно).

Противоположный по смыслу режим скрывается за кнопкой «O/D» (от overdrive — повышенная передача) на рычаге управления АКПП. Он соответствует пятой передаче на «механике» и применяется при движении на высоких скоростях. По умолчанию этот режим выключен, да и долго на нём ездить всё равно не рекомендуется. Кстати, встречается он не на всех автомобилях. Так же, как и все последующие.

Режим «M» (сокращённо от manual — ручной) – это возможность вручную переключать передачи, повышая или понижая их через «плюс» и «минус».

Режим «S»/«PWR» (от англ. sport — спортивный / power — мощь) – спортивный режим, предназначенный для улучшения динамики: переключение на повышающую передачу происходит на более высоких оборотах, чем в стандартном режиме «D».

Режим «Е» (сокращённо от economy — экономичный) предназначен для движения с оптимальным расходом топлива. Обеспечивает более ранние переключения передач.

Зимний режим «W» (от англ. winter — зима), который иногда скрывается под символом снежинки, словами «SNOW» или «HOLD», помогает максимально плавно и безопасно стартовать зимой. Автомобиль трогается сразу со второй передачи. Но не стоит пользоваться этим режимом часто – идёт серьезная нагрузка на «автомат», и он может попросту перегреться.

Ну и наконец, режим «kickdown» – принудительное понижение передачи – включается при нажатой до упора педали акселератора. Тогда «автомат» переходит на более низкую передачу, обеспечивая тем самым максимальное ускорение. Это необходимо, например, когда вы хотите обогнать.

Начинаем движение

Итак, с режимами разобрались. Давайте теперь усвоим основные правила езды на «автомате». Чтобы начать движение вам нужно сначала завести автомобиль выжать правой ногой педаль тормоза, ухватиться за рычаг управления и перевести его из режима «P» в положение «D» или «R» – в зависимости от того, в каком направлении вы собираетесь начать движение. Затем опустите «ручник», если он был поднят, и плавно отпускайте педаль тормоза. Машина потихоньку начнёт движение. Чтобы придать автомобилю ускорение, воспользуйтесь педалью акселератора. Нажимать на неё нужно также исключительно правой ногой, чтобы не допустить ситуации, когда газ и тормоз нажимаются одновременно.

Для замедления движения просто отпустите педаль акселератора – «автомат» самостоятельно понизит передачи. Если остановиться нужно срочно, вам поможет педаль тормоза.

Не хотите ремонтировать АКПП? Тогда не делайте следующее

Самая распространённая проблема, обсуждаемая на всех форумах владельцев автомобилей с АКПП, – это перегрев трансмиссии. Так что нельзя перегружать «автомат» излишними нагрузками, и о буксировке прицепа на АКПП лучше забыть.

Чтобы перегреть коробку достаточно также регулярно и долго буксовать. Именно поэтому машины на «автомате» не предназначены для езды по бездорожью. Но если вы всё-таки застряли на просёлочной дороге, лучше воспользуйтесь лопатой или попросите кого-то вас подтолкнуть.

Как вы уже поняли, перегрев является довольно частой причиной поломки автоматической коробки передач. Чтобы его не случилось, постоянно контролируйте уровень трансмиссионного масла. Если смазки будет недостаточно, то «автомат» может перегреться, а в случае перелива возникнет течь. И то, и другое может привести к серьёзной поломке и дорогостоящему ремонту.

Ещё одной причиной неисправности «автомата» является включение режима «N» во время остановок на светофоре, в пробке и т.п., а также при движении накатом, например, под горку. Особенно часто так делают водители, привыкшие ездить на механической коробке передач и склонные к экономии топлива. Однако, нейтральная передача в автоматической трансмиссии и в механической КПП – это далеко не одно и то же. Хотите сберечь горючее, но при этом не повредить автомобиль, тогда читайте про 10 вариантов экономии топлива у нас в блоге.

Также на «автомате» нельзя переключаться между режимами «D» и «R» во время движения. То есть если вы захотите сдать назад, убедитесь, что ваш автомобиль полностью остановился, а уже потом переключайте положение селектора. В противном случае это чревато не только механическими повреждениями шестерёнок и фрикционов, но и поломкой картеров АКПП.

Ремонт автоматической КПП – удовольствие не из дешёвых. Да и вообще сомнительное удовольствие 🙂 Так что следуйте нашим рекомендациям, и тогда автоматическая трансмиссия прослужит вам долго.

Хорошего сцепления с дорогой!

Режимы АКПП и как ими пользоваться.

04.13
09

Устройство АКПП

На сайте выложены схемы внутреннего устройства АКПП Toyota

03. 12
06

Обновлен прайс-лист.

Свежий прайс можно взять здесь — price_2012_07_03

12.11
15

Появился новый раздел — «Доска объявлений».

Теперь, если у Вас есть автозапчасти, вы сможете разместить объявление о продаже на нашем сайте.

 

01.11
15

Совет № 132

Гидроусилитель будет жить дольше ,если …

12.10
02

Особенности запуска двигателя в зимний период

Добавлена новая статья в разделе «Личный опыт»

Основные режимы

«P» — Parking

  • В автомате включена нейтраль, выходной вал коробки механически заблокирован, автомобиль удерживается на месте.
  • Режим используется ТОЛЬКО на стоянке и при прогреве после запуска.
  • Недопустимо включать «P» при движении.
  • Следует помнить, что коробка — не ручник, поэтому при стоянке на уклоне более 5 градусов желательно использовать стояночный тормоз (если усилие скатывания автомобиля превысит определенный предел, то блокировку просто сорвет).
  • Включать при остановках на светофорах или в пробках НЕ НАДО

«R» — Reverse — Задний ход
  • Включать ТОЛЬКО при полностью остановленном автомобиле и, само собой, при нажатом тормозе.
  • Недопустимо пытаться включить «R» при движении.

«N» — Neutral — Нейтраль
  • В нейтральном положении отсутствует связь между входным и выходным валами КПП, выходной вал незаблокирован, автомобиль может перемещаться.
  • Используется ТОЛЬКО при буксировке и при перемещении машины с заглушенным двигателем.
  • При остановках на светофорах или в пробках включать НЕ НАДО.
  • Двигаться накатом с включенной «N» — НЕЛЬЗЯ.

    «D» — Drive — Основной режим движения

  • Автоматическое переключение с 1-й по 3/4-ю передачи.
  • После включения «D» на неподвижном автомобиле необходимо дождаться момента срабатывания коробки и лишь затем начинать движение.

    «2» — Движение на 1-й и 2-й передачах

  • Используется на горных дорогах и для лучшего торможения двигателем
  • На практике испольуется при движении в пробках
  • Нельзя включать при скорости более ~80 км/ч

    «L» — Движение только на 1-й передаче

  • Используется на бездорожье, крутых уклонах и для активного торможения двигателем.
  • Нельзя включать при скорости более ~40 км/ч

    Примечание: НЕЛЬЗЯ постоянно ездить в режиме «L-2-D», якобы для улучшения разгонной динамики (эмулируя псевдо-механическую коробку).

    «O/D» — Over Drive — Разрешение включения 4-й передачи.

  • Выключается кнопкой «O/D OFF» на селекторе.
  • O/D предпочтительно использовать для движения с высокой скоростью. При движении с большой нагрузкой или в городе рекомендуется выключать повышающую передачу.

    Дополнительные режимы

    «PWR» — Power — «спортивный»

  • Переключение на повышающую передачу (с 1-й на 2-ю, со 2-й на 3-ю и т.д.) происходит при бóльших оборотах, чем в нормальном режиме — для улучшения динамики.

    «Normal» — Экономичный

  • Режим по умолчанию. Переключение на повышающую передачу происходит по достижении оборотов минимального удельного расхода топлива (максимального крутящего момента), для наибольшей плавности и экономичности.

    «MANU» — Manual — «Ручной»

  • Режим принудительного переключения передач (почти все автоматические переключения запрещены)
  • Основное назначение — использование в зимних условиях, когда при включении MANU и положении селектора «2» автомобиль трогается со второй передачи и далее движется на ней.

    «Красная кнопка с иероглифами»

  • …обозначающими «CANCEL» и подписью «Shift Lock» на ро-мадзи. Разблокировка, позволяет переключать передачи на заглушенном автомобиле без вставленного в замок зажигания ключа.

    Режимы для 4WD

    C.DIFF AUTO

  • На моделях с автоматической КПП — разрешает осуществлять блокировку межосевого дифференциала в автоматическом режиме при помощи многодисковой гидромеханической муфты. Коэффициент блокировки определяется ЭБУ в зависимости от условий движения (в пределах 0-100%). Данный режим допустимо использовать постоянно (кроме случаев использования запаски-докатки или колес разной размерности).

    C.DIFF LOCK

  • Принудительная механическая блокировка межосевого дифференциала (для моделей с МКПП).

    AUTO 4WD

    • На моделях с ATC (Ipsum, Gaia, Nadia) — разрешение подключения задних колес. В отключенном состоянии привод осуществляется только на передние колеса, во включенном — при пробуксовке передних колес автоматически будут подключаться задние.

Вернуться к списку статей

 

===============================

===============================

 

 

 

 

===============================

 

Наши посетители:

неактивные точки — прошлые визиты.

активные точки — сейчас на сайте.

=============================

 

Наши цены

 

 

 

=============================

=============================

Как правильно пользоваться «автоматом» / Автобегиннер.ру

Автоматические КПП получили большое распространение и продолжают ускоренными темпами вытеснять с автомобильного рынка коробки МКПП – привычную в нашей стране «механику».

К сожалению, многие автолюбители знают о коробке-автомате только то, что она в зависимости от условий движения автомобиля без вмешательства водителя подбирает передаточное число, тем самым облегчая процесс управления машиной. Но также важно знать, как корректно использовать данный технический узел, чтобы он не пришёл в негодность раньше срока, заявленного его производителем.

Чем удобна автоматическая КПП

При использовании автоматической КПП существенно облегчается процесс обучения начинающего водителя навыкам вождения, поскольку ученик не отвлекается на переключение между скоростями и может больше внимания уделить дорожной ситуации и прочим советам инструктора. При повседневной езде на автомобиле, а особенно в длительных поездках, отсутствие необходимости постоянно манипулировать рычагом и сцеплением также существенно снижает уровень усталости.

Но при всех достоинствах АКПП такой механизм не безупречен: он требует к себе более внимательного и аккуратного отношения, чем классическая коробка «механики». Прежде чем познакомиться с рекомендациями по использованию «автомата», нужно разобраться, какие режимы он предоставляет водителю.

Режимы, реализованные в классической АКПП, и их применение

Рычаг в классической АКПП может принимать следующие положения:

  • Паркинг (P). Из данного положения выполняется запуск двигателя, в него же переводится «автомат», когда движение машины полностью прекращено.
  • Реверсный ход (R). Включается в ситуации, когда нужно двигаться задним ходом.
  • Нейтральный режим (N). В этом положении мотор автомобиля работает вхолостую, крутящий момент от него к колёсам не передаётся. Используется при кратковременных остановках (на перекрёстках) или в процессе выполнения буксировки.
  • Движение вперёд (D). Предназначен для стандартной езды. В ходе движения передачи переключаются автоматически, при нажатии на акселератор.

D-режим в современных исполнениях имеет несколько подрежимов: L (D1), D2, D3, OD. L(D1) – «исключительно 1-я передача». Используется, когда автомобиль развивает скорость не выше 25 км/ч, и при этом есть необходимость тормозить двигателем. Этот режим оптимален в городских пробках, а также в условиях скользкого дорожного покрытия (грязь, гололёд, снег), горной дороги или пересечённой местности.

Важно всегда помнить, что в режиме L(D1) нельзя развивать высокую скорость, поскольку это обязательно приведёт к заносу! Также следует учитывать, что применение обычного режима D на крутом подъёме, скорее всего, приведёт к неконтролируемой остановке машины или даже поломке, а режим L при должном вождении способен справиться с ситуацией без проблем.
Название режимов D2, D3 расшифровывается как «первые две» и «первые три» передачи соответственно и ограничивают максимальную передачу. Их активируют, когда невозможна нормальная ровная езда, присутствуют постоянные торможения, спуски чередуются с подъёмами. Режим D2 активируют, если скорость машины не превышает 50 км/ч. Режим OD (овердрайв) используют только тогда, когда скорость автомобиля превысила 75 км/ч. Данный режим эффективно сокращает потребление топлива на трассах, но если скорость снижена до 70 км/ч, из него необходимо выйти.

Расширенные режимы АКПП

Современные автоматические коробки вдобавок к классическим располагают дополнительными режимами:

  • Экономичным (E), который создаёт плавное и размеренное движение машины, способствуя тем самым экономии топлива.
  • Спортивным (S), который обеспечивает более резкие разгон и торможение автомобиля, делая машину динамичнее, маневреннее. При этом топливо двигателем потребляется в гораздо больших объёмах.
  • Зимним (W), который обеспечивает движение с места сразу с 3-й или 2-й передачи, что облегчает движение по заледеневшему или заснеженному дорожному покрытию. Летом данный режим активировать не рекомендуется, поскольку его использование создаёт большую нагрузку и ведёт к перегреванию коробки.
Поскольку автопроизводители постоянно модернизируют свои автоматические коробки, в каких-то моделях они могут иметь и другие дополнительные режимы. Автомобилисту стоит внимательно изучить инструкцию конкретного автомобиля, садясь за руль.

Правила эксплуатации АКПП

  • Режимы паркинга, заднего хода или движения вперёд можно активировать только тогда, когда автомобиль полностью перед этим остановлен.
  • Смену режима на высокой скорости следует выполнять очень продуманно и аккуратно. К примеру, активация режима L или D2 в момент, когда автомобиль движется со скоростью более 100 км/ч, гарантировано приведёт к заносу, поскольку вызовет резкое снижение скорости.
  • Трогаться с места и тормозить нужно плавно. Чем чаще осуществляется резкое торможение или рывок вперёд, тем больше вероятность, что во время переключений будут появляться незапланированные резкие рывки автомобиля.
  • АКПП не приспособлена для того, чтобы осуществлять буксировку других автомобилей. Водитель на машине с «автоматом», вытаскивающий другую машину из грязи, рискует своим авто!
  • Если машина забуксовала, не нужно пытаться выехать за счёт акселератора. Для владельцев АКПП доступны два варианта: подтолкнуть авто снаружи или дождаться помощи.
  • При использовании режимов D2, D3 и L недопустимо превышение рамки красного сектора на тахометре.
  • Буксировать машину с «автоматом» можно не далее 50 км. Допустимая скорость при такой буксировке – 45-50 км/ч. Если продолжать движение невозможно, лучше всего отказаться от идеи буксирования и вызвать эвакуатор.
  • Совместно с режимом паркинга необходимо в обязательном порядке использовать ручной тормоз.
  • Нельзя заводить автомобиль посредством буксировки — это может привести к поломке коробки передач.
  • Если автомобиль попал в пробку или нужно выполнить короткую остановку, нельзя применять режим N. Данное предостережение особенно важно для тех, кто перед использованием авто с АКПП имел опыт езды на «механике»: следует помнить, что «N» на автомобилях с АКПП и «нейтралка» на авто с механической коробкой – это совершенно разные понятия! Для автомата «N» — это экстренный режим, отключающий работающий двигатель от ходовой части авто.
  • При постановке автомобиля под уклон не стоит забывать о стояночном тормозе — это сохранит блокиратор.
  • АКПП очень капризно относится к маслу и различным присадкам. Следует использовать только те, что заявлены в документации производителя.
  • Если перед автовладельцем поставлена цель обеспечить коробке передач долгую жизнь, не стоит пренебрегать указанными сроками планового техобслуживания. Это относится также и к ситуациям, когда водитель не слишком интенсивно эксплуатирует свою машину.

Приведённый перечень рекомендаций свидетельствует о том, что автоматическая коробка передач может показаться достаточно «капризной». Машина с такой коробкой действительно не сможет выполнить некоторые задачи, особенно в экстремальных ситуациях. Но если относиться к механизму бережно, он будет долго радовать водителя, обеспечивая надёжное передвижение автомобиля.

Для чего на автоматических коробках имеются понижающие передачи L?

На автоматических коробках передач первого поколения, которые еще не имели функции ручного управления скоростями, использовалась специальная конструкция с понижающими передачами. Многие водители попросту не понимают, для чего на автомате необходимы понижающие передачи и как правильно использовать такую коробку передач. Разберем подробнее, для чего используются понижающие передачи на автомате.


Основное назначение понижающих передач

Конструкция автомата такова, что при включении понижающей передачи в автомате на привод автомобиля передаётся больший крутящий момент, что позволяет с легкостью форсировать глубокие лужи, размытые просёлочные дороги и другие сложные участки. Тогда как в обычном режиме автомата машине просто не будет хватать мощности и крутящего момента, чтобы выбраться из такой глубокой ямы или топкого участка.

На механической коробке передач водитель сам может регулировать мощность и крутящий момент, который передается на ведущие колеса. У многих внедорожников имеется также полноценная понижающая передача, которая позволяет уверенно себя чувствовать на бездорожье. До появления таких понижающих передач на автоматах использовать машины на разбитой дороге было крайне сложно. Однако сегодня владельцы таких автомобилей могут уверенно себя чувствовать на проселочных дорогах, будучи уверенными, что они не застрянут в первой же глубокой луже.


Особенности понижающих передач на автоматах

Изначально такие понижающие передачи на автоматических коробках были прерогативой полноценных внедорожников, владельцы которых часто выбирались на разбитые дороги. Однако в последующем такая конструкция совершенствовалась, что позволило оснастить понижающими передачами все без исключения автоматы.

При использовании автомобиля с такой коробкой передач её владельцу необходимо помнить о том, что постоянное использование такого режима приводит к повышенной нагрузке на трансмиссию и перегреву автомата. Поэтому водителю не следует, как только он выбрался на загородную разбитую дорогу, включать понижающую передачу и двигаться всё время на ней. Её нужно активировать лишь в том случае, когда требуется преодолеть сложный участок дороги.


Если же пришлось длительное время держать включенной такую понижающую передачу, то, выбравшись с разбитой дороги, следует на 10-20 минут заглушить автомобиль, что позволит трансмиссионному маслу и всей автоматической коробке передач остыть, исключая критические неисправности у автомобиля. Если же пренебрегать такой рекомендацией, то, в конечном счете, потребуется выполнять замену блока управления коробкой или же проводить диагностику и замену железной части АКПП.

 

Такие трансмиссии автомат оснащаются даже не одним, а сразу двумя режимами понижающих передач. При переводе селектора в режим D3 коробка не будет переключаться на ступени выше третьей передачи. Тем самым уже с самого низа на ведущие колёса приходится значительный крутящий момент, позволяя выбираться из топкого грунта. На отдельных автомобилях также имеются специальные режимы «Камни», «Гололёд», «Грязь» и «Снег». Фактически, это те же самые понижающие передачи, причём ограничение может устанавливаться на третьей и даже второй ступени.

Современные коробки передач получили полностью электронное управление, они имеют функцию ручного переключения ступеней и спортивный режим, когда коробка максимально долго удерживает высокие обороты. Подобное позволило несколько повысить комфорт использования автомобиля на автомате, однако на разбитых дорогах возможности таких автомобилей в сравнении с машинами, у которых автомат имеет понижающую передачу, всё же ограничены.


Подведём итоги

В прошлом коробки передач автомат часто оснащались специальными понижающими передачами, что расширяло возможности таких машин на разбитых дорогах. Фактически, происходила блокировка коробки, которая не могла подниматься на четвёртую или третью передачу. Это позволяло обеспечить больший крутящий момент на ведущих колесах, а водитель мог выбраться из топкого грунта или разбитой раскисшей колеи. Нужно лишь помнить о том, что длительная активация таких понижающих передач приводит к перегреву трансмиссии, поэтому требуется охлаждать коробку и не активировать такие режимы на долго.

12.07.2020

Что означают буквы на коробке автомат (P, D, N, R и M)

Данное пособие может быть полезно тем, кто всю жизнь ездил на механике и впервые увидел панель управления коробкой-автомат, не имея представления о том, что означают буквы или другие символы в определенных положениях рычага-селектора. Стандартным набором режимов работы для всех автоматов являются: P (Parking) — парковка, D (Drive) — движение, N (Neutral) — нейтральная передача и R (Reverse) — задний ход.

У современных автомобилей с автоматической трансмиссией на приборной панели горят индикаторы положения селектора, а также отображается нумерация рабочей передачи (1, 2, 3 и далее). В некоторых случаях обозначения одного и того же режима могут различаться, иногда встречаются дополнительные режимы. Рассмотрим все более или менее распространенные варианты. Также отметим, что у всех типов автоматических коробок, будь то классический гидромеханический агрегат, робот или вариатор, основные режимы работы имеют одинаковые обозначения: P, D, N, R.

Положение селектора в P (Parking) включает режим парковки, то есть длительной стоянки, во время которого коробка блокирует движение автомобиля. В этом режиме разрешен запуск двигателя. При парковке автомобиля на уклоне необходимо сперва задействовать стояночный тормоз.

Положение D (Drive) — также очень редко встречается обозначение A (Automate) — является основным режимом движения автомобиля вперед с автоматическим переключением передач в нормальных условиях. Этот же режим остается включенным и при непродолжительных остановках, когда нет необходимости глушить двигатель, например у светофора.

R (Reverse) включает режим движения задним ходом.

Так называемая «нейтралка» N (Neutral) у автомата предназначена в основном для буксировки автомобиля, либо подобной сервисной транспортировки, когда появляется необходимость полностью отсоединить двигатель от колес. В этом положении выходной вал коробки разблокирован, и автомобиль не управляется трансмиссией, то есть может свободно перемещаться. В данном режиме разрешен запуск двигателя, нейтралку также можно включить на время парковки с активированным ручником, хотя в этом случае все же удобнее задействовать режим P (Parking). На практике же нейтральная передача очень редко используется на автомобилях с автоматической коробкой, в основном для технической транспортировки.

На современных автоматах также часто встречается режим M (Manual) — то есть ручное переключение, который имитирует работу механической коробки с принудительным последовательным повышением или понижением передач посредством движения рычага в положения + и , либо подрулевых лепестков. Данный режим нужен для самостоятельного управления переключением передач в тех моментах, когда автомобилю требуется повышенная стабильность, например на затяжном спуске, крутом подъеме, горных серпантинах, на скользкой поверхности или бездорожье, то есть, чтобы коробка не переходила на повышенную передачу при увеличении оборотов, или когда необходимо задействовать так называемое торможение двигателем путем сбрасывания передачи на пониженную.

На старых автоматах ручного режима может не быть, поэтому когда требуется передать на ведущие колеса максимальную тягу двигателя (опять-таки при движении по гололеду, на крутых подъемах и спусках), в таких коробках задействуется пониженная (первая) передача L или B (Low или Bottom), также имеющая варианты обозначения l, 1, 1L. У полноприводных автомобилей литера B может означать (Block) — блокировка дифференциала.

Аналогичными в плане функционала пониженной передаче у автомата также могут присутствовать следующие режимы:

2 или 2L — движение вперед в режиме переключения коробки не выше второй передачи. Используется при езде на извилистых горных дорогах или холмистой местности.

3 или D3 — переключение не выше третьей передачи. Используется в основном при езде с частыми остановками и на скорости не выше 80 км/ч.

4 или D4 — не выше четвертой передачи. Соответствует обычному режиму движения в нормальных условиях со средней скоростью в 100 км/ч.


Часто на самом рычаге встречается кнопка O/D (Over Drive) — повышенная передача, имеющая передаточное число меньше единицы, обычно всегда включенная по умолчанию. Суть данного режима в том, что коробка переключится на повышенную передачу уже при относительно невысокой скорости (примерно 50 км/ч) и слабонажатой педали газа, то есть во время спокойного движения будет значительно экономить топливо и меньше нагружать двигатель. При выключенном «овердрайве» повышенная передача блокируется, переключение скоростей будет происходить на более высоких оборотах двигателя, что способствует наилучшей динамике разгона и торможения.

Спортивный режим S (Sport) позволяет наиболее эффективно использовать мощность силового агрегата. Переключения передач происходят в момент развития максимального крутящего момента двигателя, для обеспечения наилучшего ускорения автомобиля. Для такого режима может использоваться обозначение DS (Drive Sport) в качестве дополнительного пояснения, что «спорт» включен в режиме автоматического переключения передач, или MS (Manual Sport) — соответственно возможность переключаться вручную.

В экономичном режиме E (Economic) в противоположность спортивному коробка-автомат обеспечивает плавное ускорение с максимальной экономией топлива, поскольку переключения происходят на относительно низких оборотах двигателя.

Зимний режим W (Winter) подразумевает трогание с места не с первой, а со второй передачи в целях предотвращения проскальзывания колес на скользком покрытии. Для активации этого режима в основном используется отдельная кнопка или переключатель, которые также могут иметь обозначения WINTER, HOLD или значок снежинки.

Режим KickDown в автоматической коробке служит для интенсивного ускорения автомобиля при резком нажатии педали газа до упора, когда в коробка скидывает одну или две передачи вниз, а двигатель в это время набирает высокие обороты. Данный режим бывает полезен при обгоне и прочих быстрых маневрах. На многих современных автомобилях «кикдаун» активируется бортовой электроникой, реагирующей на резкое нажатие на акселератор, но зачастую этот «обгонный режим» включается специальной кнопкой, расположенной под педалью акселератора.

Ну и напоследок для наглядного усвоения информации предлагаем посмотреть любительский видео-ролик, автор которого объясняет значение букв на панели селектора режимов автоматической коробки передач в автомобиле Chevrolet Aveo.

% PDF-1.3 % 1 0 объект > эндобдж 2 0 obj > эндобдж 3 0 obj > эндобдж 4 0 obj > эндобдж 5 0 obj > эндобдж 6 0 obj > эндобдж 7 0 объект > эндобдж 8 0 объект > эндобдж 9 0 объект > эндобдж 10 0 obj > эндобдж 11 0 объект > эндобдж 12 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [204,842 764,97 291,264 775,913] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 13 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [81.913 754.011 235.574 764.979] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 14 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [247.54 679.291 291.264 690.235] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 15 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [81.913 668.332 291.264 679.276] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 16 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [81.913 657.473 179.627 668.342] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 17 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [114.547 571.694 291.264 582.638] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 18 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [81.913 560.735 191.369 571.704] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 19 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [117.958 488.033 291.264 496.959] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 20 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [81.913 475.156 160.787 486.025] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 21 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [110.111 400.337 291.264 411.281] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 22 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [81.913 389.378 164.463 400.347] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 23 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [147.464 250.897 291.264 261.841] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 24 0 объект > / Граница [0 0 0] / C [0 1 1] / H / I / Rect [81.913 240.038 192.168 250.907] / Подтип / Ссылка / Тип / Аннотация >> эндобдж 25 0 объект > ручей / pdfrw_0 Сделать конечный поток эндобдж 26 0 объект > ручей xXr6} W #

Точные модели машинного обучения для конкретного пациента инвазии глиобластомы с использованием трансферного обучения

Предпосылки и цель: Моделирование плотности опухолевых клеток на основе МРТ может существенно улучшить целенаправленное лечение глиобластомы.К сожалению, вариативность между пациентами ограничивает предсказательную способность многих подходов к моделированию. Мы представляем метод трансферного обучения, который генерирует индивидуализированные модели пациентов, основанные на большом количестве данных о населении, а также выявляет и корректирует вариабельность между пациентами на основе собственных гистологических данных каждого пациента.

Материалы и методы: Мы набрали пациентов с первичной глиобластомой, которым проводилась биопсия под визуальным контролем и предоперационная визуализация, включая МРТ с контрастным усилением, МРТ с контрастом динамической восприимчивости и Тензора диффузии.Мы рассчитали относительный объем церебральной крови по данным DSC-MR изображений и средний коэффициент диффузии и фракционную анизотропию по DTI. После регистрации изображений мы оценили плотность опухолевых клеток для каждой биопсии и определили соответствующие локальные измерения МРТ. Затем мы исследовали ряд одномерных и многомерных моделей прогнозирования плотности опухолевых клеток, основанных на измерениях МРТ в рамках обобщенного подхода «одна модель подходит всем». Затем мы реализовали как одномерные, так и многомерные индивидуализированные прогностические модели трансферного обучения, которые используют доступные данные на уровне популяции, но допускают индивидуальную вариативность в своих прогнозах.Наконец, мы сравнили коэффициенты корреляции Пирсона и среднюю абсолютную ошибку между индивидуализированным трансферным обучением и обобщенными моделями «одна модель для всех».

Результаты: Плотность опухолевых клеток достоверно коррелировала с относительной CBV ( r = 0,33, P <0,001) и постконтрастным T1-взвешенным ( r = 0,36, P <0,001) при одномерном анализе после корректировки множественных сравнений. .При моделировании с одной переменной (с использованием относительной CBV) трансфертное обучение повысило прогностическую эффективность ( r = 0,53, средняя абсолютная ошибка = 15,19%) по сравнению с моделью, подходящей для всех ( r = 0,27, средняя абсолютная ошибка = 17,79%). Благодаря многомерному моделированию трансферное обучение еще больше улучшило производительность ( r = 0,88, средняя абсолютная ошибка = 5,66%) по сравнению с универсальной моделью с одной моделью ( r = 0,39, средняя абсолютная ошибка = 16,55%).

Выводы: Трансферное обучение значительно улучшает прогностическое моделирование для количественной оценки плотности опухолевых клеток в глиобластоме.

Машина селективного переноса для персонализированного обнаружения блока действий на лице

Proc IEEE Comput Soc Conf Comput Vis Pattern Recognit. Авторская рукопись; доступно в PMC 2014 19 сентября.

Опубликован в окончательной отредактированной форме как:

Proc IEEE Comput Soc Conf Comput Vis Pattern Recognit. 2013; 2013: 3515–3522.

doi: 10.1109 / CVPR.2013.451

PMCID: PMC4169220

NIHMSID: NIHMS554958

Вен-Шенг Чу

Институт робототехники, Университет Карнеги-Меллона, Питтсбург, Пенсильвания 15213

Фернандо Де ла Торре

Институт робототехники, Университет Карнеги-Меллона, Питтсбург, Пенсильвания 15213

Джеффри Ф.Cohn

Институт робототехники, Университет Карнеги-Меллона, Питтсбург, Пенсильвания 15213

Департамент психологии, Университет Питтсбурга, Питтсбург, Пенсильвания 15260

Институт робототехники, Университет Карнеги-Меллона, Питтсбург, Пенсильвания 15213

Департамент психологии, Университет Питтсбурга, Питтсбург, Пенсильвания 15260

См. Другие статьи в PMC, в которых цитируется опубликованная статья.

Abstract

Обнаружение устройства автоматического действия на лице (AFA) по видео является давней проблемой при анализе выражения лица.Большинство подходов подчеркивают выбор функций и классификаторов. Они пренебрегают индивидуальными различиями в целевых лицах. Люди заметно различаются по морфологии лица (например, тяжелые брови против тонких, гладкие или глубокие морщины) и поведению. Индивидуальные различия могут существенно повлиять на то, насколько хорошо общие классификаторы распространяются на ранее невидимых людей. Хотя одним из возможных решений было бы обучение классификаторов, ориентированных на конкретного человека, это часто неосуществимо и не является теоретически убедительным.Альтернатива, которую мы предлагаем, — персонализировать общий классификатор без присмотра (никаких дополнительных ярлыков для испытуемых не требуется). Мы представляем метод трансдуктивного обучения, который мы называем машиной селективного переноса (STM), чтобы персонализировать общий классификатор путем ослабления индивидуальных предубеждений. STM достигает этого эффекта путем одновременного изучения классификатора и повторного взвешивания обучающих выборок, которые наиболее актуальны для испытуемого. Чтобы оценить эффективность STM, мы сравнили STM с универсальными классификаторами и междоменными методами обучения в трех основных базах данных: CK + [20], GEMEP-FERA [32] и RU-FACS [2].STM во всем превзошел универсальные классификаторы.

1. Введение

Лицо — один из самых мощных каналов невербального общения. Выражение лица сообщает об эмоциях, намерениях, настороженности, боли и личности, регулирует межличностное поведение и, помимо других функций, сообщает о психиатрическом и биомедицинском статусе. Система кодирования действий лица (FACS) [14] является наиболее полной анатомической системой кодирования выражений лица. FACS разделяет видимые эффекты активации лицевых мышц на «единицы действия» (ЕД).Каждая AU связана с одной или несколькими лицевыми мышцами. FACS описывает активность лица на основе 33 уникальных единиц действия (ЕД), а также нескольких категорий положений головы и глаз и других движений. Таким образом, движение лица описывается в терминах составляющих компонентов, или ЕД.

Автоматическое обнаружение лицевого блока (AFA) сталкивается с рядом проблем. К ним относятся изменения позы, масштаба, освещения, окклюзии и индивидуальных различий в форме, текстуре и поведении лица.Форма и текстура лица различаются между полами и внутри, а также этническими и расовыми признаками, различаются в зависимости от возраста и воздействия элементов и различаются темпами поведения. Некоторые люди широко и часто улыбаются; другие редко или с контролем улыбки, которые противодействуют восходящему натяжению большой скуловой кости на уголки губ. Эти и другие источники вариаций представляют собой серьезные проблемы для компьютерного зрения. Кроме того, существует проблема автоматического определения лицевых действий, которая требует значительного обучения и опыта даже для кодировщиков-людей, о чем недавно сообщалось в первой задаче «Распознавание и анализ выражения лица» [32].

Для решения этих проблем предыдущая работа была сосредоточена на определении оптимальных представлений функций и классификаторов. См. Обзор в [11, 21, 32]. Несмотря на то, что были достигнуты улучшения, возможность обобщения классификаторов на ранее невидимых людей остается сложной задачей. иллюстрирует пример того, как простой линейный классификатор может отделить положительные образцы AU12 (наклонно приподнятые уголки губ, видно на улыбке) от отрицательных образцов (, то есть , все другие AU). В этом случае мы используем все доступные данные по одному и тому же предмету для обучения и называем это идеальным классификатором .Однако, когда классификатор изучен с использованием обучающих данных по всем предметам () и протестирован на предмете, исключенном из обучающей выборки, он не сможет хорошо обобщить. Когда классификатор обучается по всем доступным предметам, он обозначается как общий . Мы предполагаем, что нарушение обобщаемости происходит частично из-за индивидуальных различий между испытуемыми. В показанном примере эти различия включают пол, цвет кожи и освещение. Наша основная гипотеза состоит в том, что эти факторы приводят к тому, что универсальные классификаторы работают лучше или хуже по одним предметам, чем по другим.

(a) 2D PCA-проекции положительных и отрицательных образцов для AU12 (приподнятый угол губ). В то время как идеальные классификаторы, обученные и протестированные отдельно для каждого предмета, правильно разделяют положительные и отрицательные образцы (обозначенные квадратами и кружками соответственно) для каждого предмета, (б) общие классификаторы, обученные на данных по всем 3 предметам, плохо обобщают при применении к предыдущему. неизвестный предмет. Машина выборочной передачи, которая персонализирует общий классификатор, надежно отделяет AU12 от невидимого объекта.

Чтобы смягчить предубеждения, связанные с конкретным человеком, в этой статье исследуется идея персонализировать универсальный классификатор. Универсальные классификаторы персонализируются без использования ярлыков AU от испытуемых. Мы предлагаем новую трансдуктивную технику под названием Selective Transfer Machine (STM). STM персонализирует общий классификатор неконтролируемым образом, чтобы компенсировать индивидуальные предубеждения, и значительно улучшает обобщаемость, см. Мы проиллюстрируем преимущества нашего подхода в задаче обнаружения AU на лице на трех основных наборах данных по заданным и спонтанным выражениям лица.Насколько нам известно, это первая работа по исследованию персонализации классификатора для анализа выражения лица.

2. Связанные работы

Связанные работы включают обнаружение AU и междоменную адаптацию. Мы кратко рассмотрим каждый из них по очереди.

2.1. Обнаружение AU на лице

Автоматическое обнаружение AU включает как минимум три этапа. Это отслеживание и регистрация, извлечение признаков и возможное сокращение данных, а также выбор классификатора.

Отслеживание нежестких черт лица было давней проблемой компьютерного зрения.Наиболее популярными подходами к нежесткому отслеживанию были модели активного внешнего вида [22] или более поздние разработки, такие как ограниченные локальные модели [25] или дискриминационные AAM [35]. Обзор всех из них выходит за рамки данной статьи, но мы отсылаем читателя к недавним статьям по этой теме [25, 35].

После того, как отслеживание выполнено и лицо зарегистрировано, многие функции были предложены для использования для обнаружения AU, такие как интенсивность пикселей, края, SIFT [39], DAISY [39], струи Габора [2], композиционные особенности [37] ] и многие другие, но, как было показано в первом испытании на распознавание выражения лица [32], ни один из них явно не превосходит друг друга.

При разработке классификаторов для обнаружения AU использовались два основных подхода. Одним из них является статическое моделирование, которое обычно представляет собой проблему разграничительной классификации, в которой каждый видеокадр оценивается независимо [2]. Другой — временное моделирование, при котором кадры сегментируются на последовательности и моделируются с помощью варианта динамических байесовских сетей (, например, , скрытые марковские модели, условные случайные поля) [7, 26, 33]. Например, Тонг и др. . [30] использовали динамические байесовские сети с особенностями внешнего вида для моделирования совместной встречаемости всех единиц.В качестве альтернативы Саймон и др. . [27] предложили использовать SVM структурного вывода для обнаружения начальных и конечных кадров каждого AU. Недавно Рудович и др. . [24] рассматривал порядковую информацию в условном случайном поле для моделирования отношений между временными сегментами.

Заинтересованные читатели могут обратиться к [11, 21, 32] для более полного обзора методов обнаружения AU. Общим для всех этих подходов является предположение, что данные для обучения и тестирования поступают из одного и того же распределения.STM не делает такого предположения. Поэтому он стремится персонализировать классификатор путем автоматического повторного взвешивания обучающих выборок, наиболее подходящих для каждого испытуемого.

2.2. Междоменная адаптация

Наш подход мотивирован растущей озабоченностью по поводу дисбаланса базы данных и предвзятости в компьютерном зрении. В реальных данных интересующие нас метки часто встречаются нечасто, а функции могут заметно различаться между наборами данных и внутри них. Торральба и Эфрос [31] обнаружили значительные предубеждения в категоризации объектов; В качестве средства правовой защиты они призвали к усовершенствованию адаптации домена , чтобы справиться с ошибками набора данных.Айтар и Зиссерман [1] предложили перенести предварительно изученные модели, чтобы упорядочить обучение нового класса объектов. Недавно Khosla et al . [18] объединили конкретную и общую дискриминационную модель для нескольких задач, чтобы устранить предвзятость. Эти методы использовали контролируемый подход к обучению, в котором один или несколько помеченных экземпляров требуются от целевого домена. Они не могут быть применены к новым областям или предметам, если никто не знает о них заранее. Напротив, наш подход полностью неконтролируемый, не использует помеченные экземпляры и, следовательно, хорошо подходит для проблемы обобщения обучения на новые области или новые предметы в нашем случае.

Близким к нашему подходу является особый случай неконтролируемой адаптации домена, известный как ковариативный сдвиг [28], где обучающая и тестовая области следуют разным распределениям, но распределения меток остаются неизменными. Дудик и др. . [13] сделал вывод о весах повторной выборки через оценку максимальной плотности энтропии. Максимальное среднее несоответствие (MMD) [3] измеряет несоответствие между двумя различными распределениями с точки зрения ожиданий эмпирических выборок. Без оценки плотности Transductive SVM (T-SVM) [17] одновременно изучает границу решения и максимизирует запас при наличии немаркированных шаблонов.Адаптация домена SVM [5] расширяет T-SVM, постепенно адаптируя дискриминантную функцию к целевому домену. SVM-KNN [38] маркирует одиночный запрос с помощью SVM, обученного в его окрестности k обучающих данных. Каждый из этих методов использует либо все обучающие данные, либо их часть. В отличие от предыдущих подходов, STM изучает веса на отдельных экземплярах обучения и, следовательно, лучше использует данные.

Учитывая несоответствие распределения, Kernel Mean Matching (KMM) [16] напрямую определяет веса повторной выборки путем сопоставления обучающего и тестового распределений.Следуя этой идее, Ямада и др. . [36] оценили вес относительной важности и извлекли уроки из взвешенных обучающих выборок для трехмерной оценки позы человека. Заинтересованный читатель может обратиться к [23] для полного обзора. Однако в этих методах используется двухэтапный подход, который сначала оценивает веса выборки, а затем обучает повторно взвешенный классификатор / регрессор. Напротив, STM совместно оптимизирует веса, а также параметры классификатора и, следовательно, сохраняет дискриминантное свойство новой границы решения.В гл. 4 преимущества STM перед KMM станут более очевидными.

3. Машина выборочного переноса (STM)

В этом разделе описывается предлагаемый подход STM для персонализации универсального классификатора. В отличие от предыдущих междоменных методов [1, 12, 18], STM не требует меток от испытуемого. Мы будем использовать машину опорных векторов (SVM) в качестве классификатора, потому что это был популярный инструмент классификации для обнаружения AU [9, 27, 34]. Однако STM не зависит от классификатора и, следовательно, может использоваться с любым классификатором.

Формулировка задачи

Основная идея STM состоит в том, чтобы повторно взвесить обучающие образцы, которые ближе к тестовым образцам. Классификаторы, обученные на повторно взвешенных обучающих выборках, с большей вероятностью будут соответствовать испытуемому. Обозначим обучающую выборку как Dtr = {xi, yi} i = 1ntr, y i ∈ {+1, −1} (см. Обозначение 1 ). Для упрощения записи мы складываем 1 в каждый вектор данных x i , чтобы компенсировать смещение, i.е. , x i d +1 . Мы формулируем СТМ как:

(w, s) = argminw, sRw (Dtr, s) + λΩs (Xtr, Xte),

(1)

где R w (𝒟 tr , s) — эмпирический риск SVM, определенный на обучающем наборе 𝒟 tr с каждым экземпляром, взвешенным по s ∈ n tr , т.е. , каждая запись s i s соответствует положительному весу для выборки x i s ( X tr , X te ) измеряет несоответствие распределения между обучающим и тестовым распределением как функцию s. Чем ниже значение Ω s , тем больше похожи обучающее и тестовое распределения. λ ≥ 0 — это компромисс, позволяющий сбалансировать риск и несоответствие распределения. Целью STM является совместная оптимизация SVM w со штрафными санкциями, а также выборочного коэффициента s, чтобы полученный в результате персонализированный классификатор мог лучше устранять индивидуальные предубеждения.

SVM с штрафными санкциями

Первый член в STM, R w (𝒟 tr , s), представляет собой эмпирический риск SVM со штрафными санкциями, где каждый обучающий экземпляр взвешивается по его релевантности для тестовых данных. Взвешенная по экземплярам SVM минимизирует:

Rwlin (Dtr, s) = 12∣∣w∣∣2 + C∑i = 1ntrsiLp (yi, wTxi),

(2)

где L p ( y , ·) = max (0, 1 — y ·) p и p либо 1 (потеря шарнира), либо 2 (квадратичная потеря), но обычно L может быть любой функцией потерь.Уравнение (2) может быть расширен до нелинейной версии путем введения матрицы ядра Kij≔k (xitr, xjtr), соответствующей функции ядра k , индуцированной из отображения нелинейных признаков φ (·). Используя теорему о представителе [8], SVM со штрафом в (2) можно переписать как:

Rβnonlin (Dtr, s) = 12βTKβ + C∑i = 1ntrsiLp (yi, KiTβ).

(3)

В отличие от большинства существующих работ, мы будем обучать ядро ​​SVM первичному алгоритму из-за его простоты и эффективности, используя метод Ньютона, который имеет квадратичную сходимость [8].Кроме того, стандартные пакеты, которые решают SVM в основном, не включают весовые коэффициенты по экземплярам. Подробности оптимизации будут даны в гл. 4.

Несоответствие доменов

Второй член в STM, Ω s ( X tr , X te ), является несоответствием домена, и его цель — найти повторное взвешивание функция для минимизации несоответствия между обучающей и тестовой областями. В предыдущих методах междоменного обучения функция повторного взвешивания может быть вычислена путем отдельной оценки плотностей, а затем весов ( e.г. , [29]). Однако эта двухэтапная стратегия непрактична и увеличивает ошибку оценки при использовании отношения оцененных плотностей [29].

Интуитивно понятный способ переназначить веса — это вычислить соотношение между плотностью обучения и плотности теста. Однако такие плотности недоступны в реальных приложениях. Здесь мы применяем метод Kernel Mean Matching (KMM) [16], чтобы уменьшить разницу между средними обучающими и тестовыми распределениями в гильбертовом пространстве воспроизводящего ядра ℋ.KMM вычисляет повторное взвешивание по экземплярам s i , которое минимизирует

Омс (Xtr, Xte) = ∣∣1ntr∑i = 1ntrsiφ (xitr) −1nte∑j = 1nteφ (xjte) ∣∣h3.

(4)

Вводя κi≔ntrntr∑j = 1nteκ (xitr, xjte), i = 1,…, n tr , который фиксирует близость между обучением и каждой тестовой выборкой, найти подходящую s в (4) можно переписанный как квадратичное программирование (QP):

mins12sTKs − κTs, s.t.si∈ [0, B], ∣∑i = 1ntrsi − ntr∣≤ntr∊.

(5)

где B в первом ограничении определяет несоответствие границ области между обучающими / тестовыми распределениями P tr и P te . Для B → 1 получаем невзвешенное решение. Последнее ограничение гарантирует, что результирующая мера s ( x ) P tr ( x ) близка к распределению вероятностей согласно неравенству Хёффдинга [16]. Большие значения κ i указывают на важные наблюдения xitr и, вероятно, приведут к большим s i .Основным преимуществом KMM является то, что он не требует оценки плотности смещения или вероятностей выбора. иллюстрирует его влияние на синтетические данные. Как показано, KMM может хорошо предсказать идеальное соответствие, в то время как стандартные обычные методы наименьших квадратов (OLS) и взвешенные OLS (WOLS) с соотношением обучение / тест не могут предсказать истинное соответствие теста.

Подгонка прямой к квадратичной функции с использованием KMM и других подходов с повторным взвешиванием. Кружки представляют тренировочные данные, а тестовые данные квадратами.Чем больше размер (или больше красного) обучающих данных, тем больший вес KMM адаптирован для подгонки. Как можно заметить, KMM установил более высокие веса в обучающих выборках ближе к тестовым выборкам. По сравнению со стандартными OLS или WOLS, это позволяет лучше аппроксимировать линейные модели (линии) для тестовых данных.

Сходства и различия между методами STM и междоменного обучения

И методы STM, и методы междоменного обучения стремятся компенсировать смещения, связанные с данными. Они различаются тем, как это делают.Мы сравниваем и сравниваем STM с тремя широко используемыми междоменными подходами к обучению: T-SVM [17], KMM [16] и DA-SVM [5]. T-SVM [17] одинаково взвешивает все обучающие данные; Напротив, STM придает больший вес обучающим данным, которые более актуальны для данного испытуемого. T-SVM оформлен как целочисленное программирование, которое сложно оптимизировать и масштабировать для решения больших задач. С другой стороны, СТМ формулируется как двояковыпуклая задача и, следовательно, обеспечивает сходимость. И KMM [16], и STM повторно взвешивают данные.KMM выполняет повторное взвешивание только один раз, в то время как STM делает это итеративно. STM использует результаты обучения для уточнения взвешивания на последовательных шагах. Таким образом, STM может корректировать неоптимальные веса. С этой точки зрения KMM можно рассматривать как частный случай STM (дополнительные обсуждения см. В разделе 4), в котором повторное взвешивание выполняется только на начальном этапе. DA-SVM [5], как и T-SVM, изучает классификатор без повторного взвешивания обучающих данных. STM, как уже отмечалось, переназначает веса в свете последовательных результатов.Еще одно отличие состоит в том, что DA-SVM может не сойтись, в то время как STM всегда сходится.

Алгоритм 1

Машина селективного переноса

4. Оптимизация для STM

Чтобы минимизировать уравнение. (1) мы применяем метод альтернативного выпуклого поиска [15], который чередуется между решением двух выпуклых подзадач над гиперплоскостью w и селективным коэффициентом s. Поскольку цель СТМ в (1) является двояковыпуклой, то есть выпуклой по w при фиксированном s (квадратичная по w и L p выпуклая) и выпуклая по s при фиксированном w (поскольку K ≥ 0).В этих условиях альтернативный подход к оптимизации гарантированно монотонно уменьшает целевую функцию. Поскольку функция ограничена снизу, она сходится к критической точке. Алгоритм 1 резюмирует алгоритм STM.

Минимизация более s

Обозначим потери при обучении как p L p ( y i , w T x i ) , i = 1,…, n tr .Оптимизацию по s можно переписать в следующий КП:

минут12sTKs + (Cλℓp − κ) Tss.t.0≤si≤B, ntr (1 − ∊) ≤∑i = 1ntrsi≤ntr (1 + ∊).

(6)

Эту проблему можно эффективно решить, используя методы внутренней точки или другие процедуры последовательной оптимизации, такие как метод переменных направлений множителей (ADMM) [4]. Поскольку K ≥ 0 по определению, QP имеет только один глобальный оптимум. Чтобы алгоритм был численно устойчивым, можно добавить небольшой выступ σ на диагонали i.е. , K = K + σ I n (в нашем случае σ = 10 −8 ).

Обратите внимание, что процедура здесь отличается от исходной KMM, так как на каждой итерации взвешивание будет уточняться за счет потерь в обучении p , заданных SVM со штрафными санкциями. Поскольку KMM является неконтролируемым подходом и не использует информацию на этикетке, возможно, что выбранные образцы зашумлены.Введение потерь при обучении помогает сохранить дискриминантное свойство новой границы принятия решения и, следовательно, приводит к персонализированному классификатору, близкому к идеальному. Этот эффект также можно наблюдать при минимизации линейного члена в (6), где экземплярам с большими потерями будут присвоены меньшие веса. С этой точки зрения стандартный двухэтапный KMM можно рассматривать как частный случай как первую итерацию STM.

иллюстрирует итерационный эффект на синтетическом примере для изучения целевого классификатора.Как показано в нем №1, KMM не может приблизиться к идеальной гиперплоскости, поскольку не накладывает никаких ограничений на качество классификации. С другой стороны, STM одновременно учитывает потери при обучении и веса и, таким образом, способствует хорошей классификации обучающих выборок, близких к тестовым. Как видно на фиг., По мере продолжения итераций гиперплоскость разделения СТМ приближается к идеальной для целевых данных.

Сравнение общей SVM, персонализированной STM и идеального классификатора для синтетических данных.Крайний левый рисунок показывает кривую сходимости целевого значения, где STM сходится за 12 итераций. На рисунках №1,4,8,12 с точностью обучения / тестирования (Tr% и Te%) показаны гиперплоскости в соответствующих итерациях, где серые (заштрихованные) точки обозначают данные обучения, а белые (незатененные) точки обозначают данные тестирования; кружки / квадраты обозначают соответственно положительные / отрицательные классы. Обратите внимание, что №1 указывает результат KMM [16]. STM улучшает разделение по сравнению с универсальной SVM уже на первой итерации и сходится близко к идеальной гиперплоскости к 12-й итерации.

Минимизация более w

В случае, если потеря в обучении 2 является квадратичной, градиент и гессиан штрафной линейной SVM в (2) можно записать как:

∇lin = w + 2C∑i∈svsi (wTxi − yi) xi,

(7)

Hlin = Id + 2C∑i∈svsixiT,

(8)

где sv обозначает индексный набор опорных векторов. Обозначим S = diag (s) ∈ n × n матрицу повторного взвешивания, y ∈ n вектор метки, а I 0 n × n матрица идентичности близости с первыми диагональными элементами n sv , равными 1, а остальными 0.Мы можем получить градиент относительно коэффициент расширения β для штрафованного нелинейного SVM в (3) как:

нелинейный = K β + 2 C KSI 0 (K β λ ),

(9)

H нелинейный = K + 2 C КСИ 0 К.

(10)

Учитывая градиенты и гессианы, штрафные SVM могут быть решены с помощью стандартных методов Ньютона или сопряженного градиента.В случае использования недифференцируемых потерь на шарнире 1 , можно использовать субградиентные методы или дифференцируемую аппроксимацию потерь Хубера [8].

5. Эксперименты

STM сравнивали для обнаружения AU с универсальным SVM и подходами междоменного обучения в трех широко используемых базах данных, которые различаются по продолжительности, степени движения головы вне плоскости и спонтанности выражения лица. Для анализа были выбраны 8 наиболее часто встречающихся AU в базах данных.

5.1. Наборы данных

  1. Extended Cohn-Kanade (CK +) [20] содержат последовательности изображений спонтанных и непозиционных спонтанных выражений с фронтальной позой. Последовательности изображений в среднем имеют длину около 20 кадров; они начинаются с нейтрального выражения и переходят к пику, который помечен как AU. Мы использовали 593 последовательности изображений от 123 субъектов.

  2. GEMEP-FERA [32] является частью корпуса GEMEP. Поза головы — фронтальная. Профессиональные актеры изображают 18 эмоций.Мы использовали обучающую подгруппу из 87 видео от 7 актеров, длина которых составляла от 40 до 110 кадров.

  3. RU-FACS [2] состоит из записанных интервью 100 молодых людей. Интервью длились примерно 2,5 минуты. Поза головы была фронтальной с небольшим или умеренным вращением вне плоскости. У нас был доступ к 34 интервью, из которых видео от 5 субъектов не удалось обработать по техническим причинам (, например, , шумное видео). Таким образом, описанные здесь эксперименты проводились с данными 29 участников с более чем 180 000 фреймов.

5.2. Экспериментальные настройки

Отслеживание / выравнивание лица

66 ориентиров на лице были отслежены с использованием индивидуальных моделей активного внешнего вида (AAM) [22].

Извлечение признаков

Признаки внешнего вида были извлечены как дескрипторы SIFT [39]. Поскольку AU локализованы в определенных областях лица, дескрипторы были вычислены в областях размером 36 × 36 пикселей на предварительно определенных лицевых ориентирах (9 для верхней части лица и 7 для нижней части лица). Размерность была уменьшена с помощью PCA, сохранив 98% энергии.

Выбор и оценка AU

Для анализа были выбраны 8 наиболее часто встречающихся AU в базах данных. Положительные образцы — это кадры, в которых присутствует данная AU, и отрицательные образцы, в которых ее нет. Чтобы обеспечить более объективную оценку, мы указываем как площадь под кривой ROC (AUC), так и балл F 1, который определяется как F1 = 2 =Recall⋅PrecisionRecall + Precision. Оба показателя широко используются в литературе и передают неизбыточную информацию.AUC определяет соотношение между истинными и ложными срабатываниями. F 1 количественно определяет компромисс между отзывом и точностью.

5.3. Сравнение с индивидуальными классификаторами

Естественным сравнением с STM является индивидуальный индивидуальный классификатор (PS). PS можно определить как минимум двумя способами. Один, более распространенный, — это классификатор, который был обучен и протестирован по тому же предмету. Мы называем это использование PS 1 . Другое значение, которое мы называем PS 2 или квази-PS, — это классификатор, который был протестирован на предмете, который был включен, среди прочего, в обучающий набор.Например, рассмотрим случай, когда данные от пяти субъектов случайным образом распределяются по наборам для обучения и тестирования. Классификатор PS 2 обучается и затем тестируется на тестовой выборке. Таким образом, у каждого испытуемого были данные как в обучающей, так и в тестовой выборках. GEMEP-FERA [32] определил PS таким образом. Для SVM мы оценили PS обоими способами. Для STM было возможно только PS 2 .

Мы обучили персонализированные SVM по обоим сценариям и обучили STM только на PS 2 , чтобы продемонстрировать возможность выбора.Неудивительно, что PS 2 -SVM работает лучше, чем PS 1 -SVM, поскольку PS 1 -SVM обучался только на ограниченных обучающих данных и, следовательно, страдает от переобучения. Поскольку PS 2 -SVM был обучен по всем доступным предметам, его можно рассматривать как общий классификатор, который используется в большей части литературы по обнаружению AU. Однако, как обсуждалось в разд. 1, общие классификаторы могут страдать от смещений и приводить к неоптимальной производительности. С другой стороны, STM неизменно превосходит оба классификатора для конкретных людей, поскольку STM позволяет выбирать только релевантные обучающие данные и лучше подходит для распределения тестов.показывает коэффициент выбора STM при инициализации и после схождения с использованием PS 2 . Каждая строка суммируется до 1, и каждая запись показывает часть выбранных выборок обучающих субъектов по отношению к каждому испытуемому. Как показано на фиг.3, когда STM сходится, он выбирает большую часть обучающих данных, которые принадлежат целевому объекту (более высокие значения диагонали).

Коэффициент выбора СТМ для разных субъектов на этапе инициализации и сходимости на PS 1 . Каждая строка суммируется до 1 и обозначает испытуемого.Каждая запись показывает часть выбранных обучающих выборок относительно. каждый испытуемый.

5.4. Сравнение с универсальными классификаторами и подходами к адаптации предметной области

В этом эксперименте сравнивается производительность STM с универсальными классификаторами, изученными для всего набора данных, методом ковариантного сдвига KMM [16], полууправляемым T-SVM [10] и адаптацией предметной области метод DA-SVM [5]. Мы сравнили методы по базам данных CK +, RU-FACS и GEMEP-FERA. В этом эксперименте любая выборка испытуемых исключается из обучения.

Мы использовали ядро ​​Гаусса с полосой пропускания, которая представляет собой среднее расстояние между точками выборки. Для KMM и STM мы устанавливаем B = 1000, чтобы ни один из s i не достиг верхней границы, ∊ = ntr − 1ntr, и прошел перекрестную проверку на невзвешенных данных (как предложено в [16]). Для T-SVM мы использовали реализацию из [10], поскольку исходная T-SVM [17] решает целочисленное программирование и не масштабируется до задач большого размера, таких как обнаружение AU для видео из тысяч кадров.Мы использовали линейные SVM во всех методах. Для метода DA-SVM мы использовали LibSVM [6] и SVM со штрафными санкциями, обсуждаемую в разд. 4 для задачи минимизации границы с τ = 0,5 и β = 0,03. Параметры для всех методов были выбраны путем перекрестной проверки.

~ показать оценки AUC и F 1 в базах данных CK +, GEMEP-FERA и RU-FACS. Линейная SVM служила базовым универсальным классификатором. KMM не смог работать лучше, чем базовый уровень, потому что он оценивал веса без использования информации на этикетках во время обучения.T-SVM работает аналогично SVM в GEMEP-FERA и RU-FACS, но хуже, чем SVM в CK +. Это связано с тем, что в CK + отрицательные (нейтральные кадры) и положительные (пиковые кадры) выборки более различимы по сравнению с последовательными кадрами в GEMEP-FERA или RU-FACS. Важно отметить, что для CK + мы использовали последнюю треть кадра в последовательности для оценки способности к обобщению. Хотя результаты нельзя напрямую сравнивать, STM достиг 91% AUC, что немного лучше, чем лучшие опубликованные результаты с 90.5% [19]. Обратите внимание, что при включении кадров, которые находятся дальше от пиковых кадров, проблема для STM усложняется.

Таблица 2

Сравнения по набору данных CK + [20]

AUC
F 1 Оценка
AU SVM SVM KVM STM SVM KMM TSVM DASVM STM
1 79.8 68,9 69,9 72,6 88,9 61,1 44,9 56,8 57,7 62,2
2 90,8 73,5 69,3 71,0 87,5 73,5 50,8 59,8 64,3 76,2
4 74,8 62,2 63.4 69,9 81,1 62,7 52,3 51,9 57,7 69,1
6 89,7 87,7 60,5 94,7 94,0 75,5 70,1 47,8 68,2 79,6
7 82,1 68,2 55,7 61,4 91.6 59,6 47,0 43,8 53,1 79,1
12 88,1 89,5 76,0 95,5 92,8 76,7 74,5 59,6 59,0 77,2
15 93,5 66,8 49,9 94,1 98,2 75.3 44,4 40,4 76,9 84,8
17 90,3 66,6 73,1 94,7 96,0 76,0 53,2 61,7 81,4 84,3

Среднее 86,1 72,9 64,7 81,7 91,3 70.0 54,7 52,7 64,8 76,6

Таблица 4

Сравнения в наборе данных RU-FACS [2]

AUC F 1 Оценка
AU SVM DA-SVM STM SVM KMM T-SVM DA-SVM STM
1 72.0 74,0 72,0 77,0 83,9 40,8 37,7 37,4 35,5 55,3
2 66,6 58,6 71,1 76,5 82,4 35,7 32,2 36,2 34,1 52,6
4 74,8 62,2 50.0 76,4 82,4 25,2 14,5 11,2 35,3 30,4
6 89,1 88,8 61,6 60,3 93,1 58,3 39,2 33,1 42,9 72,4
12 86,7 87,0 86,7 84.4 92,3 61,9 63,0 62,6 71,4 72,3
14 71,8 67,8 74,4 70,4 87,4 31,3 25,8 25,8 40,9 51,0
15 72,5 68,8 73,5 58,1 86.1 32,3 29,5 32,3 34,9 45,4
17 78,5 76,7 79,5 75,7 89,6 39,5 35,6 44,0 46,5 55,3

Среднее 76,5 72,3 71,1 72,3 85.3 40,6 37,3 40,6 42,7 54,3

В отличие от STM, который использовал SVM со штрафными санкциями, T-SVM не рассматривал повторное взвешивание для обучающих экземпляров и использовал потери для всех обучающих данных. Следовательно, он по-прежнему страдает от личностных предубеждений, когда нерелевантные предметы по-прежнему вносят одинаковый вклад во время обучения. DA-SVM расширяет T-SVM, постепенно маркируя тестовые шаблоны и удаляя помеченные обучающие шаблоны.Неудивительно, что DA-SVM показывает лучшую производительность, чем KMM и T-SVM, потому что он использовал более релевантные обучающие выборки и привел к лучшему персонализированному классификатору. Однако, как и T-SVM, DA-SVM не обновлял повторные взвешивания с использованием информации на этикетке. Более того, не всегда гарантируется сходимость к правильному решению. В наших экспериментах мы столкнулись с ситуацией, когда DA-SVM не мог сойтись из-за большого количества образцов, лежащих в пределах границ. Напротив, STM представляет собой двояковыпуклую формулировку и поэтому гарантирует сходимость к критической точке и превосходит существующие подходы.Обратите внимание на то, что в STM показатели AUC были немного хуже из-за несбалансированных данных. Однако при использовании критерия F 1, который лучше подходит для задачи обнаружения несбалансированности (как отмечено выше), STM показывает улучшение. В более крупном наборе данных RU-FACS, где доступно больше данных, улучшение стало более очевидным.

Таблица 3

Сравнения по набору данных GEMEP-FERA [32]

SVM
AUC
F 1 Оценка
AU SVM DA-SVM STM SVM KMM T-SVM DA-SVM STM
1 71.5 43,3 72,2 83,3 84,3 56,5 48,5 60,3 59,1 68,1
2 73,9 51,0 74,3 76,8 73,3 56,9 50,2 58,5 57,1 65,5
4 58,5 53,5 42.8 66,6 60,0 43,5 39,8 36,9 46,3 43,3
6 80,4 60,2 81,1 91,1 87,7 63,7 58,7 63,8 72,7 71,6
7 66,9 59,4 70,8 76.9 75,4 63,1 63,5 63,7 68,3 66,2
12 77,7 58,8 74,8 74,5 84,7 79,1 68,4 77,6 75,5 82,1
15 55,5 58,7 67,2 67,5 67.8 33,4 35,2 35,2 41,3 39,3
17 59,8 51,8 63,8 66,5 63,3 32,0 27,8 36,2 42,0 35,9

Среднее 68,0 54,6 68,4 75.4 74,5 53,5 49,0 54,0 57,8 59,0

6. Выводы

В этой статье предложен трансдуктивный метод для персонализации универсального классификатора для обнаружения единиц действия на лице (AU). Наша структура STM одновременно изучает параметры классификатора и выборочные веса, что минимизирует несоответствие между обучающим и тестовым распределениями. Мы показываем, что STM трансформируется в двояковыпуклую задачу, и предлагаем простой альтернативный подход к минимизации для ее оптимизации в примале.Ослабляя влияние присущих отклонений в морфологии и поведении, мы показали, что STM может достигать результатов, превосходящих неперсонализированные универсальные классификаторы и приближаясь к характеристикам классификаторов, которые были обучены для отдельных лиц (, т. Е. , индивидуально-зависимые классификаторы). . Результаты ясно продемонстрировали, что STM превосходит существующие классификаторы при использовании одного и того же протокола для обучения и тестирования. Таким образом, STM оказался сопоставимым с междоменными методами в меньших базах данных CK + и FERA.В более крупной базе данных RU-FACS STM превзошел междоменные методы.

В экспериментах мы наблюдали, что точность обычно падает, когда в тестовых данных встречается ограниченное количество единиц измерения. Это приводит к высоким значениям оценочных весов для обучающих примеров, которые не были надежными. В настоящее время мы работаем над этой проблемой. Наконец, стоит отметить, что STM — это общая структура, применимая за пределами проблемы обнаружения AU, и может быть легко применена к другим областям, таким как распознавание объектов или действий.

Таблица 1

Сравнение между классификаторами STM и PS

AUC
F 1 Оценка
AU PS- 1 -90SVM6 906 STM PS 1 -SVM PS 2 -SVM STM
1 48,0 72,34 79.2 45,0 54,8 61,9
2 46,5 71,1 80,2 45,9 55,7 64,3
4 62,6 61,9 66,5 46,6 40,7 60,4
6 70,3 80,0 86.4 60,2 69,7 78,5
7 47,5 54,3 72,4 49,4 55,3 58,4
12 65,7 74,0 72,3 69,5 70,4 72,6
15 41,4 64,0 70.5 44,5 49,0 56,0
17 32,6 70,3 61,7 25,0 40,3 36,3

Среднее 51,8 68,5 73,6 48,3 54,5 61,0

Благодарности

Исследования, представленные в этой публикации, были частично поддержаны Национальным институтом психического здоровья Национальных институтов здравоохранения под номером R01MH096951 и Национальным научным фондом в рамках гранта RI-1116583.Авторы несут полную ответственность за содержание, которое не обязательно отражает официальную точку зрения Национальных институтов здравоохранения или Национального научного фонда. Мы также хотели бы поблагодарить Цзы-Куо Хуанга за полезные обсуждения.

Сноски

1 Заглавные жирные буквы X обозначают матрицу; X i представляет столбец i th матрицы X . Жирные строчные буквы вектор-столбец x ; x j обозначает скаляр в элементе j th размером x .Все не жирные буквы обозначают скаляры. I n n × n — единичная матрица.

Ссылки

[1] Айтар Ю., Зиссерман А. Табула Раса: Перенос модели для определения категории объекта. ICCV. 2011; 2 3. [Google Scholar] [2] Бартлетт М., Литтлворт Дж., Фрэнк М., Лайнскек К., Фазель И., Мовеллан Дж. Автоматическое распознавание лицевых действий в спонтанных выражениях. Журнал мультимедиа. 2006. 1 (6): 22–35. 1, 2, 5, 7. [Google Scholar] [3] Боргвардт KM, Греттон A, Раш MJ, Kriegel HP, Schölkopf B, Smola AJ.Интеграция структурированных биологических данных по максимальному среднему отклонению ядра. Биоинформатика. 2006. 22 (14): 49–57. 2. [PubMed] [Google Scholar] [4] Бойд С., Парих Н., Чу Э., Пелеато Б., Экштейн Дж. Распределенная оптимизация и статистическое обучение с помощью метода переменных направлений множителей. Основы и тенденции машинного обучения. 2011; 3 (1): 1–122. 4. [Google Scholar] [5] Бруззон Л., Маркончини М. Проблемы адаптации предметной области: метод классификации DASVM и стратегия круговой проверки. ПАМИ.2010. 32 (5): 770–787. 3, 4, 6. [PubMed] [Google Scholar] [6] Чанг Си Си, Лин Си Дж. LIBSVM: библиотека для поддержки векторных машин. ACM Trans. по интеллектуальным системам и технологиям. 2011 27 февраля; 27: 1-27. 6. [Google Scholar] [7] Чанг Кей, Лю Т.Л., Лай С.Х. Изучение частично наблюдаемых скрытых условных случайных полей для распознавания выражения лица. CVPR. 2009 2. [Google Scholar] [8] Шапель О. Тренировка опорной векторной машины в первичном. Нейронные вычисления. 2007. 19 (5): 1155–1178. 3, 5. [PubMed] [Google Scholar] [9] Чу С.В., Люси П., Люси С., Сараги Дж., Кон Дж. Ф., Шридхаран С.Независимое от человека определение выражения лица с использованием ограниченных локальных моделей. AFGR. 2011 3. [Google Scholar] [10] Коллоберт Р., Синц Ф., Уэстон Дж., Боттоу Л. Крупномасштабные трансдуктивные SVM. JMLR. 2006; 7: 1687–1712. 6. [Google Scholar] [11] Де ла Торре Ф., Кон Дж. Анализ выражения лица. Визуальный анализ людей: глядя на людей. 2011: 377. 2. [Google Scholar] [12] Дуань Л., Цанг И., Сюй Д. Перенос домена, обучение нескольких ядер. ПАМИ. 2012. 34 (3): 465–479. 3. [PubMed] [Google Scholar] [13] Dudik M, Schapire RE, Phillips SJ.Исправление систематической ошибки выбора выборки при оценке максимальной плотности энтропии. НИПС. 2005 2. [Google Scholar] [14] Экман П., Фризен В. Система кодирования лицевых движений: метод измерения лицевых движений. Консультации психологов Press. 1978 1. [Google Scholar] [15] Горски Дж., Пфеффер Ф., Кламрот К. Двояковыпуклые множества и оптимизация с двояковыпуклыми функциями: обзор и расширения. Математические методы исследования операций. 2007. 66 (3): 373–407. 4. [Google Scholar] [16] Греттон А., Смола А., Хуанг Дж., Шмиттфулл М., Боргвардт К., Шёлкопф Б.Ковариальный сдвиг путем сопоставления средних значений ядра. Сдвиг набора данных в машинном обучении. 2009 3, 4, 5, 6. [Google Scholar] [17] Иоахимс Т. Трансдуктивный вывод для классификации текста с использованием опорных векторных машин. ICML. 1999 г. 3, 4, 6. [Google Scholar] [18] Хосла А., Чжоу Т., Малисевич Т., Эфрос А., Торральба А. Устранение ущерба, нанесенного смещением набора данных. ECCV. 2012 2, 3. [Google Scholar] [19] Литтлворт Г., Уайтхилл Дж., Ву Т., Фазель И., Фрэнк М., Мовеллан Дж., Бартлетт М. Набор инструментов для распознавания компьютерных выражений (CERT) AFGR.2011 7. [Google Scholar] [20] Люси П., Кон Дж. Ф., Канаде Т., Сараги Дж., Амбадар З., Мэтьюз И. Расширенный набор данных кон-канаде (CK +): полный набор данных для единиц действия и выражения эмоций. CVPR Мастерские. 2010 1, 5, 6. [Google Scholar] [21] Мартинес А., Ду С. Модель восприятия эмоций на лице людьми: обзор исследования и перспективы. JMLR. 2012; 13: 1589–1608. 2. [Бесплатная статья PMC] [PubMed] [Google Scholar] [22] Мэтьюз И., Бейкер С. Еще раз о моделях активной внешности.IJCV. 2004. 60 (2): 135–164. 2, 5. [Google Scholar] [23] Куионеро-Кандела Дж., Сугияма М., Швайгхофер А., Лоуренс Н. Сдвиг набора данных в машинном обучении. 2009 3. [Google Scholar] [24] Рудович О., Павлович В., Пантик М. Условные порядковые случайные поля ядра для временной сегментации единиц лицевого действия. ECCV Workshop. 2012 2. [Google Scholar] [25] Сараги Дж., Люси С., Кон Дж. Выравнивание лиц с помощью подпространственных ограниченных средних сдвигов. ICCV. 2009 2. [Google Scholar] [26] Шан Л., Чан К. Непараметрический дискриминант HMM и приложение к распознаванию мимики.CVPR. 2009 2. [Google Scholar] [27] Саймон Т., Нгуен М.Х., Де ла Торре Ф., Кон Дж. Ф. Обнаружение Au с помощью SVM на основе сегментов. CVPR. 2010 2, 3. [Google Scholar] [28] Сугияма М., Крауледат М., Мюллер К. Адаптация ковариативного сдвига с помощью взвешенной перекрестной проверки по важности. JMLR. 2007. 8: 985–1005. 2. [Google Scholar] [29] Сугияма М., Накадзима С., Кашима Х., Фон Буэнау П., Каванабе М. Прямая оценка важности с выбором модели и ее применение для ковариации адаптации сдвига. НИПС. 2008 г. 3. [Google Scholar] [30] Тонг И, Ляо В., Цзи К.Распознавание единиц действия лица за счет использования их динамических и семантических отношений. ПАМИ. 2007. 29 (10): 1683–1699. 2. [PubMed] [Google Scholar] [31] Торральба А., Эфрос А. Беспристрастный взгляд на систематическую ошибку набора данных. CVPR. 2011 2. [Google Scholar] [32] Валстар М.Ф., Меху М., Цзян Б., Пантик М., Шерер К. Метаанализ первой задачи распознавания выражения лица. IEEE Trans. по системам, человеку и кибернетике, часть B. 2012; 42 (4): 966–979. 1, 2, 5, 6, 7. [PubMed] [Google Scholar] [33] Валстар М.Ф., Пантик М. Полностью автоматическое распознавание временных фаз движений лица.IEEE Trans. по системам, человеку и кибернетике, часть B. 2012; 42 (1): 28–43. 2. [PubMed] [Google Scholar] [34] Ву Т., Бутко Н.Дж., Руволо П., Уайтхилл Дж., Бартлетт М.С., Мовеллан-младший. Передача распознавания единиц действия между наборами данных. Автоматическое распознавание лиц и жестов. 2011 г. 3. [Google Scholar] [35] Xiong X, De la Torre F. Метод контролируемого спуска и его приложения для выравнивания лица. CVPR. 2013 2. [Google Scholar] [36] Ямада М., Сигал Л., Раптис М. Никаких предубеждений: адаптация ковариантного сдвига для различительной оценки трехмерной позы.ECCV. 2012 г. 3. [PubMed] [Google Scholar] [37] Ян П., Лю К., Metaxas DN. Изучение мимики с композиционными особенностями. CVPR. 2010 2. [Google Scholar] [38] Чжан Х., Берг А.С., Мэйр М., Малик Дж. SVM-KNN: Дискриминационная классификация ближайшего соседа для визуального распознавания категорий. CVPR. 2006 г. 3. [Google Scholar] [39] Чжу Й., Де ла Торре Ф., Кон Дж. Ф., Чжан Ю. Дж. Динамические каскады с двунаправленной загрузкой для обнаружения единиц действия в спонтанном поведении лица. IEEE Trans. по аффективным вычислениям.2011; 2 (2): 79–91. 2, 5. [Бесплатная статья PMC] [PubMed] [Google Scholar]

Перенесите свой контент на новый Mac

Используйте Помощник по миграции, чтобы скопировать все свои документы, приложения, учетные записи пользователей и настройки на новый Mac с другого компьютера.


Помощник по миграции копирует все ваши файлы со старого Mac на новый Mac, чтобы вам не приходилось копировать их вручную.

Приготовьтесь

  1. Установите все доступные обновления программного обеспечения на оба компьютера. Если на вашем старом Mac не используется OS X Lion или более поздняя версия, а на новом Mac не используется OS X Mavericks или более поздняя версия, выполните действия по миграции Mountain Lion.
  2. Если оба компьютера используют macOS Sierra или более поздней версии, поместите их рядом друг с другом и включите Wi-Fi. Если один из них использует OS X El Capitan или более раннюю версию, убедитесь, что оба находятся в одной сети.
  3. На старом Mac выберите меню «Apple» System> «Системные настройки», затем нажмите «Общий доступ». Убедитесь, что имя отображается в поле «Имя компьютера».

Воспользуйтесь помощником по миграции

Теперь вы готовы использовать Ассистент миграции для переноса файлов со старого Mac на новый.

На вашем новом Mac

  1. Откройте Помощник по миграции, который находится в папке «Утилиты» папки «Приложения».Затем нажмите «Продолжить».
  2. Когда вас спросят, как вы хотите перенести информацию, выберите вариант передачи с Mac, резервной копии Time Machine или загрузочного диска. Затем нажмите «Продолжить».

На старом Mac

  1. Откройте Помощник по миграции и нажмите «Продолжить».
  2. Когда вас спросят, как вы хотите перенести информацию, выберите вариант переноса на другой Mac. Затем нажмите «Продолжить».

На вашем новом Mac

Когда вас попросят выбрать Mac, резервную копию Time Machine или другой загрузочный диск, выберите другой Mac. Затем нажмите «Продолжить».

На старом Mac

Если вы видите код безопасности, убедитесь, что это тот же код, что и на вашем новом Mac. Затем нажмите «Продолжить».

На вашем новом Mac

  1. Выберите информацию для передачи.
    В этом примере John Appleseed — это учетная запись пользователя macOS. Если его имя совпадает с именем учетной записи, уже существующей на вашем новом Mac, вам будет предложено либо переименовать старую учетную запись, либо заменить ее на новом Mac. Если вы переименуете, старая учетная запись будет отображаться как отдельный пользователь на вашем новом Mac с отдельной домашней папкой и логином. При замене старая учетная запись будет удалена, а затем заменена учетной записью на вашем новом Mac, включая все, что находится в его домашней папке.
  2. Нажмите «Продолжить», чтобы начать передачу.Для выполнения крупных переводов может потребоваться несколько часов.
  3. После завершения Migration Assistant войдите в перенесенную учетную запись на своем новом Mac, чтобы просмотреть ее файлы.

Если вы не оставляете свой старый Mac, узнайте, что делать, прежде чем продавать, отдавать или обменивать старый Mac.

Дата публикации:

Заголовок: Раздел 16.50 — Регистрация установок с радиационным оборудованием; уведомление о передаче радиационного оборудования

РАДИАЦИОННОЕ ОБОРУДОВАНИЕ

Вступительное примечание: Разделы под этим заголовком содержат положения об уведомлении о регистрации и передаче радиационного оборудования, а также общие и дополнительные требования радиационной защиты, применимые только к конкретному радиационному оборудованию.

16.50 Регистрация установок с радиационным оборудованием; уведомление о передаче радиационного оборудования.

(a) Никто не должен устанавливать, обслуживать или эксплуатировать любую радиационную установку, на которой находится или использовать какое-либо радиационное оборудование в работоспособном состоянии или предназначенное для использования, если такая установка не была зарегистрирована, что подтверждается действующим свидетельством о регистрации, выданным оператор его отделом или был зарегистрирован другим способом, принятым отделом в соответствии с подразделом (j) данного раздела. (10) _________________________________________________________________________ СНОСКА (10): Радиационное оборудование, освобожденное от требований данной Части в соответствии с разделом 16.4 освобожден от требования регистрации. _________________________________________________________________________

(b) Заявление на регистрацию радиационной установки, как описано в подразделе (а) данного раздела, должно быть подано ее оператором в департамент в письменной форме и в порядке, установленном департаментом. Сроки подачи заявки:

(1) для установки, не имеющей зарегистрированного статуса, от 60 до 30 дней до создания установки;

(2) для установки в зарегистрированном статусе с действующим сертификатом регистрации, за 60–30 дней до истечения срока действия такого сертификата, если сертификат не будет отозван или установка не будет прекращена по истечении срока действия сертификата или до него;

(3) для установки, в отношении которой меняются оператор или местоположение, в период от 60 до 30 дней до такого изменения.

(c) Департамент может приостановить, приостановить или отозвать свидетельство о регистрации, если обнаружит, что:

(1) информация, представленная в заявлении, неверна или неполна; или

(2) сборы за регистрацию и / или свидетельство не были уплачены должным образом; или

(3) установка создана, была или будет установлена, обслуживаться или эксплуатироваться в нарушение Закона штата о здравоохранении, Санитарного кодекса штата (Глава I настоящего раздела) или любого другого применимого закона, правила, постановления или постановления; или

(4) сертификат выдан некорректно.(d) Свидетельство о регистрации выдается на ограниченный период времени с даты выдачи до даты истечения срока, указанной в свидетельстве. Продолжительность такого периода времени не должна превышать двух лет, за исключением того, что департамент может выдать свидетельство о регистрации на более длительный период времени, чтобы сдвинуть даты истечения срока действия в административных целях.

(e) Свидетельство о регистрации, выданное оператору радиационной установки, истекает:

(1) срок годности, указанный в сертификате; или

(2) отзыв отдела; или

(3) смена оператора; или

(4) изменение местоположения радиационной установки, если это не мобильная установка; или

(5) изменение названия установки; или

(6) прекращение установки.

(f) Свидетельство о регистрации не подлежит передаче или переуступке.

(g) Свидетельство о регистрации, выданное для радиационной установки, с не истекшим сроком действия, должно быть на видном месте вывешено на установке и предоставлено оператором, по запросу, в департамент, уполномоченный санитарный врач или другое лицо или агентство, проводящее обследование установка в соответствии с разделом 16.10 (а) (1) данной Части.

(h) Свидетельство о регистрации не должно означать одобрения или утверждения отделом и не должно использоваться для рекламы или продвижения бизнеса.

(i) Оператор радиационной установки должен поддерживать правильность и полноту информации, представленной в его заявлении на регистрацию, сообщая в отдел в письменной форме в течение 10 дней о любых изменениях, влияющих на такую ​​информацию.

(j) Департамент может принять вместо регистрации в департаменте регистрацию в Департаменте здравоохранения города Нью-Йорка. Принятие регистрации может быть сделано только для радиационных установок, обследованных в рамках программы инспекций, проводимой Департаментом здравоохранения города Нью-Йорка, как описано в параграфе (1) подраздела (а) раздела 16.10 этой Части. В качестве условия согласия департамента на регистрацию в соответствии с настоящим разделом регистрирующее агентство должно предоставить департаменту в письменной форме в такое время и в такой форме, которые могут быть предписаны комиссаром, соответствующую информацию, касающуюся регистрации каждой зарегистрированной радиационной установки. агентством. Информация, предоставляемая отделу, должна охватывать как минимум те пункты, которые содержатся в анкете ведомства для регистрации радиационной установки.

(k) Дистрибьютор, розничный продавец или другой агент, который продает, сдает в аренду, передает, ссужает или устанавливает рентгеновское или флюороскопическое оборудование или другое радиационное оборудование, подпадающее под требования регистрации этого раздела, должен уведомить отдел в письменной форме в течение 10 дней после совершение такой продажи, аренды, передачи, ссуды или установки в соответствии с инструкциями по форме, установленной департаментом.

(l) Никто не должен производить, продавать, сдавать в аренду, передавать, одалживать или устанавливать радиационное оборудование, подпадающее под требования регистрации данного раздела, или расходные материалы, используемые в связи с таким оборудованием, если только такие материалы и оборудование, когда они введены в эксплуатацию и используются, будет соответствовать требованиям данной Части.

Произошла ошибка при настройке пользовательского файла cookie

Этот сайт использует файлы cookie для повышения производительности. Если ваш браузер не принимает файлы cookie, вы не можете просматривать этот сайт.


Настройка вашего браузера для приема файлов cookie

Существует множество причин, по которым cookie не может быть установлен правильно. Ниже приведены наиболее частые причины:

  • В вашем браузере отключены файлы cookie. Вам необходимо сбросить настройки своего браузера, чтобы он принимал файлы cookie, или чтобы спросить вас, хотите ли вы принимать файлы cookie.
  • Ваш браузер спрашивает вас, хотите ли вы принимать файлы cookie, и вы отказались. Чтобы принять файлы cookie с этого сайта, нажмите кнопку «Назад» и примите файлы cookie.
  • Ваш браузер не поддерживает файлы cookie. Если вы подозреваете это, попробуйте другой браузер.
  • Дата на вашем компьютере в прошлом. Если часы вашего компьютера показывают дату до 1 января 1970 г., браузер автоматически забудет файл cookie. Чтобы исправить это, установите правильное время и дату на своем компьютере.
  • Вы установили приложение, которое отслеживает или блокирует установку файлов cookie. Вы должны отключить приложение при входе в систему или проконсультироваться с системным администратором.

Почему этому сайту требуются файлы cookie?

Этот сайт использует файлы cookie для повышения производительности, запоминая, что вы вошли в систему, когда переходите со страницы на страницу. Чтобы предоставить доступ без файлов cookie потребует, чтобы сайт создавал новый сеанс для каждой посещаемой страницы, что замедляет работу системы до неприемлемого уровня.


Что сохраняется в файле cookie?

Этот сайт не хранит ничего, кроме автоматически сгенерированного идентификатора сеанса в cookie; никакая другая информация не фиксируется.

Как правило, в cookie-файлах может храниться только информация, которую вы предоставляете, или выбор, который вы делаете при посещении веб-сайта. Например, сайт не может определить ваше имя электронной почты, пока вы не введете его. Разрешение веб-сайту создавать файлы cookie не дает этому или любому другому сайту доступа к остальной части вашего компьютера, и только сайт, который создал файл cookie, может его прочитать.

границ | Сравнение трансферного обучения и обычного машинного обучения, применяемого к структурной МРТ головного мозга для ранней диагностики и прогноза болезни Альцгеймера

Введение

По оценкам, в 2018 г. в единственных Соединенных Штатах пострадало 5,7 миллиона человек, а распространенность среди пожилых людей [> 65 лет, (1)] — 10%. Болезнь Альцгеймера (БА) является наиболее распространенным нейродегенеративным заболеванием, учитывая на 50–75% всех случаев деменции (2).

На сегодняшний день БА можно точно диагностировать только после смерти с помощью патологоанатомических исследований, направленных на определение наличия амилоидных бляшек и нейрофибриллярных клубков. Различие между различными нейродегенеративными фенотипами деменции имеет первостепенное значение, чтобы позволить пациентам получить доступ к соответствующему лечению и поддержке (3).

Вероятный или возможный клинический диагноз БА часто в основном основывается на самоотчетах пациента и оценке поведенческого, функционального и когнитивного статуса с помощью нейропсихологических тестов и анкет.Однако этот подход оказывается недостаточным для диагностики БА, особенно на ранней преддементной стадии заболевания, известного как легкое когнитивное нарушение (MCI), скорость прогрессирования которого до деменции Альцгеймера составляет всего 33% (4).

Из-за этих недостатков и согласно многочисленным научным данным, появившимся в последние годы, пересмотренные диагностические критерии БА, опубликованные в 2011 году, включали нейровизуализационные исследования как методы, способные обнаруживать признаки заболевания еще до того, как деменция станет очевидной (5, 6).Методы нейровизуализации включают в себя как функциональную визуализацию, такую ​​как позитронно-эмиссионную томографию (ПЭТ) с Ab- или tau-специфичными радиоактивными индикаторами, так и структурную / метаболическую визуализацию, такую ​​как магнитно-резонансная томография (МРТ) или ПЭТ с радиоактивным индикатором фтордезоксиглюкозы. Эти методы могут обеспечить измерение депонирования специфичных для БА белков и участков пониженного метаболизма / атрофии, соответственно, связанных с наличием и прогрессированием БА (7, 8).

Научный прогресс привел к недавней инициативе Национального института старения и Ассоциации Альцгеймера по обновлению руководящих принципов 2011 г., определяя БА по лежащим в ее основе патологическим процессам, которые могут быть задокументированы с помощью патологоанатомического исследования или in vivo с помощью биомаркеров, независимо от клинических данных. симптомы или признаки.Этот новый подход сместил определение БА у живых людей с синдромальной на биологическую конструкцию и сфокусировал диагностику БА на биомаркерах у живых людей посредством измерения отложения β-амилоида, патологического тау-белка и нейродегенерации из биожидкостей и визуализации (9 ).

Однако радиологам может быть сложно обнаружить присутствие визуализирующих биомаркеров путем визуального осмотра изображений мозга на ранних стадиях заболевания.

Из-за этих ограничений сообщество нейровизуализации недавно привлекло передовое машинное обучение (ML) и методы распознавания образов.Эти методы действительно позволяют извлекать информацию из данных и использовать эту информацию для разработки моделей, которые могут автоматически классифицировать новые образцы. В области нейровизуализации они доказали способность идентифицировать неизвестные паттерны, связанные с заболеванием, в данных визуализации без априорной информации о патофизиологических механизмах основного заболевания. Эффективность этих методов при автоматической диагностике новых пациентов достигла высоких значений, в том числе при рассмотрении БА [например, (10–14)]. Однако при ранней диагностике БА, т.е.е., различение пациентов с MCI, которые перейдут в AD (MCIc), от тех, кто не будет (MCInc), является очень сложной и сложной проблемой (15), поскольку клиническая реализация систем ML, обученных тонким функциям мозга, способных различать MCIc от MCInc требует разработки большого количества разнообразных параметров и методов обработки изображений для точной настройки обучения.

В самые последние годы новая техника машинного обучения из области компьютерного зрения привлекла внимание исследовательского сообщества из-за отличных результатов, полученных в нескольких задачах визуального распознавания (16).Этот метод, известный как глубокое обучение (17), позволяет изучать представления данных с несколькими уровнями абстракции (представленными несколькими уровнями обработки) (18), что приводит к поразительному повышению производительности по сравнению с традиционными алгоритмами классификации.

Глубокое обучение уже показало свою потенциальную эффективность в клинических приложениях, таких как автоматическое обнаружение метастатического рака молочной железы (19), автоматическая диагностика рака легких (20) или автоматическая сегментация опухоли печени (21), как путем обучения. целая архитектура классификации с нуля или с использованием методов трансферного обучения (22, 23).В частности, этот последний подход позволяет предварительно обучить сеть на очень большом наборе данных общих изображений и затем точно настроить полученную модель с использованием конкретных выборок, связанных с целевой проблемой. Это оказывается действительно полезным, когда количество доступных обучающих выборок невелико по сравнению с количеством образцов, необходимых для обучения с нуля стабильной, беспристрастной и не перегруженной архитектуры глубокого обучения.

Применение этих новых методов к исследованиям нейровизуализации является активной областью исследований, в которых они ожидают улучшения характеристик классификации.Однако существует некоторая критика этого подхода, например: (1) характер характеристик, используемых в качестве представления исходных образцов, которые все еще нуждаются в дальнейшем исследовании, особенно при рассмотрении нейродегенеративных заболеваний, таких как AD, которые демонстрируют распределенный (а не локализованный) образец атрофии; (2) использование архитектур с переносом обучения, которые часто предварительно обучаются на общих изображениях, учитывая относительно небольшой объем данных медицинской визуализации; однако это может повлиять на производительность модели классификации, поскольку связь между информацией, используемой для предварительного обучения архитектуры, и информацией, используемой для точной настройки, может влиять на производительность сети.

Учитывая эти открытые вопросы и отсутствие научных работ, направленных на прямое сравнение различных методологических подходов, в этой статье мы хотим сосредоточиться на сравнении глубокого / трансферного обучения и обычного машинного обучения в применении к одним и тем же исследованиям нейровизуализации. для ранней диагностики и прогноза БА. Магнитно-резонансная томография (МРТ) имеет несколько сильных сторон для такого рода исследований: она включена в качестве метода нейровизуализации во все клинические испытания, посвященные БА, для исключения пациентов с заболеваниями головного мозга, отличными от БА; он дешевле, чем ПЭТ, и более распространен как в западных, так и в незападных регионах; это неинвазивный метод, и он может предоставить информацию о дегенерации нейронов на морфологическом уровне, таким образом, служа методом визуализации для измерения биомаркеров нейродегенерации.

С этой целью мы внедрили и обучили различные подходы к классификации, основанные на методах глубокого обучения и традиционном машинном обучении, с использованием двух разных наборов многоцентровых изображений мозга МРТ, полученных из базы данных Инициативы по нейровизуализации болезни Альцгеймера (ADNI) (adni.loni.usc. эду). Были оценены следующие бинарные сравнения: AD против CN, MCIc против CN, MCIc против MCInc. Однако, поскольку отдельные алгоритмы могут работать лучше, чем другие для данной задачи, в этой работе был реализован ансамбль различных индивидуальных алгоритмов, чтобы уменьшить проблемы при различных сравнениях фенотипов AD, возникающие из-за выбора единой архитектуры и улучшения характеристик классификации.

Автоматическая классификация предложенных методов была использована для сравнения различных подходов к классификации и для оценки потенциального применения ансамблевого обучения для автоматической ранней диагностики и прогноза БА в сравнении с хорошо зарекомендовавшими себя и проверенными методами машинного обучения.

Материалы и методы

Участники и наборы данных

Данные, использованные при подготовке этой статьи, были получены из базы данных Инициативы по нейровизуализации болезни Альцгеймера (ADNI) (adni.loni.usc.edu). ADNI был запущен в 2003 году Национальным институтом старения (NIA), Национальным институтом биомедицинской визуализации и биоинженерии (NIBIB) и Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA) в качестве 5-летнего государственно-частного партнерства под руководством главный исследователь, Майкл В. Вайнер, доктор медицины. Основная цель ADNI заключалась в том, чтобы проверить, можно ли объединить серийную магнитно-резонансную томографию (МРТ), позитронно-эмиссионную томографию (ПЭТ), другие биологические маркеры, а также клинические и нейропсихологические оценки участников для измерения прогрессирования легкого когнитивного нарушения (MCI). и ранняя болезнь Альцгеймера (БА) — см. www.adni-info.org.

Согласно протоколу ADNI (http://www.adni-info.org/Scientists/ADNIStudyProcedures.html) каждый участник желал, говорил на английском или испанском языках, мог выполнить все процедуры тестирования, описанные в протоколе, и имел партнер по учебе может предоставить независимую оценку функционирования. Критерии включения для разных диагностических классов пациентов указаны ниже:

CN Субъекты

Краткая шкала оценки психического состояния (MMSE) (24) — от 24 до 30, оценка клинической деменции (CDR) — ноль (25), отсутствие депрессии, MCI и деменции.

Пациенты с МКИ

баллов MMSE между 24 и 30, CDR 0,5, объективная потеря памяти, измеренная по результатам подтеста Logical Memory II по шкале памяти Векслера (26), отсутствие значительных уровней нарушений в других когнитивных областях и отсутствие слабоумие.

MMSE имеет оценку от 20 до 26, CDR 0,5 или 1,0 и критерии вероятной БА, определенные Национальным институтом неврологических и коммуникативных расстройств и инсульта (NINCDS) и Ассоциацией болезни Альцгеймера и связанных с ней расстройств (ADRDA) (27, 28).

В данной работе мы использовали два разных набора данных, полученных из репозитория ADNI. Они воспроизводят те же наборы данных, которые использовались в ранее опубликованных исследованиях (11, 29) и были обозначены как Salvatore-509 и Moradi-264 , которые подробно описаны ниже.

Сальваторе-509

Это тот же набор данных, который использовался в ранее опубликованном исследовании Salvatore et al. (12) и состоит из 509 субъектов, собранных из 41 различных радиологических центров и разделенных следующим образом: 137 AD, 162 CN, 76 MCIc и 134 MCIc, в зависимости от их диагноза (преобразованные в AD или стабильные MCI и CN) после период наблюдения 18 месяцев Для каждого пациента были получены структурные МРТ-изображения, взвешенные по T1 (1.5 T, последовательность MP-RAGE), полученные во время скрининга или базового визита, рассматривались [в соответствии со стандартным протоколом получения ADNI, подробно описанным в (30)]. Данные были получены из публичного репозитория ADNI.

Моради-264

Это тот же набор данных, который использовался в ранее опубликованном исследовании Moradi et al. (11) и состоит из 264 субъектов, разделенных на 164 MCIc и 100 MCIc в зависимости от их диагноза (преобразованный в AD или стабильный MCI) после периода последующего наблюдения в 36 месяцев.Для каждого пациента учитывались Т1-взвешенные структурные МРТ-изображения (1,5 Тл, последовательность MP-RAGE), полученные во время базового визита. В исходной публикации была исследована бинарная классификация MCIc по сравнению с MCInc, и система классификации была проверена с помощью подхода 10-кратного CV. Также в этом случае данные были получены из публичного репозитория ADNI.

Предварительная обработка МРТ

Для наборов данных Salvatore-509 и Moradi-264 МР-изображения были загружены в формате 3D NIfTI из репозитория ADNI.Характеристики изображения (например, разрешение) не были одинаковыми для каждого сканирования в наборах данных, потому что МРТ были получены в результате многоцентрового исследования. Затем каждое изображение было дополнительно подвергнуто фазе предварительной обработки, индивидуально, с основной целью сделать разные сканы сопоставимыми друг с другом. Этот этап был полностью выполнен на платформе Matlab (Matlab R2017a, The MathWorks) с использованием программного пакета VMB8. Фаза предварительной обработки включала переориентацию изображения, обрезку, удаление черепа, совместную регистрацию в шаблоне мозга Монреальского неврологического института (MNI) и сегментацию в карты вероятности ткани серого вещества.В частности, этап совместной регистрации был выполнен с использованием MNI152 (T1 1 мм мозг) (31). Возможные неоднородности и артефакты были проверены визуальным осмотром томов МРТ до и после этапа предварительной обработки.

Все объемы МРТ имели размер 121 x 145 x 121 воксель.

Затем объемы МРТ были обрезаны до 100 центральных срезов, чтобы сфокусировать анализ на внутренних структурах мозга (включая гиппокамп), что привело к получению объема 100 x 100 x 100 вокселей для каждого сканирования МРТ.

В последующих анализах использовались как целые объемы МРТ, так и внутренние мозговые структуры по отдельности.

Алгоритмы классификации

В этом разделе мы описываем подходы традиционного машинного обучения и глубокого / трансфертного обучения, которые использовались для выполнения автоматической классификации диагноза и прогноза БА.

Мы разработали 1 классификатор опорных векторов-машин [SVM, (32)] в сочетании с двумя различными методами извлечения / выбора признаков, пять точно настроенных сверточных нейронных сетей 2D [CNN, (17)], предварительно обученных на общих изображениях (обучение передачи) и один 3D CNN, обученный с нуля на объемах МРТ.Исчерпывающее описание различных подходов, использованных в этом исследовании, представлено ниже. Здесь стоит отметить, что выбор подходов обычного машинного обучения, а также методов извлечения и выбора признаков, используемых в этом исследовании, основан на обзоре литературы (13), а также на результатах предыдущих исследований. исследования (33, 34).

Подход традиционного машинного обучения

Подход традиционного машинного обучения, используемый в этой статье, получается путем объединения двух методов извлечения и / или выбора признаков с методом автоматической классификации на основе SVM.

Учитывая высокую размерность вектора признаков, полученного из каждого МР-изображения (> 10 6 вокселей на объем МРТ), этап выделения / выбора признаков действительно необходим для уменьшения проблемы размерности, чтобы удалить нерелевантные особенности , и для уменьшения переобучения, потенциально улучшая производительность SVM. Были протестированы следующие подходы к извлечению и отбору признаков: совокупный выбор и частичные наименьшие квадраты ядра. Выбор этих методов основан на результатах, полученных в наших двух предыдущих работах (33, 34), в которых мы изучили и сравнили более 30 различных подходов к уменьшению признаков (с учетом обеих статей), чтобы изучить их дискриминационную способность при применении. к данным нейровизуализации МРТ.Как можно понять из результатов и обсуждений этих документов, Aggregate Selection и kPLS показывают наиболее многообещающие результаты с точки зрения точности классификации, чувствительности, специфичности и AUC, таким образом показывая более высокую способность распознавания, чем другие протестированные подходы (рассматриваемые индивидуально). . Соответственно, мы применили эти методы сокращения признаков для классификации данных МРТ в этой работе.

Aggregate Selection (AS) (35) — это метод выбора признаков, который объединяет (1) ранжирование признаков на основе оценки Фишера (32), (2) двухвыборочный T-тест (32) и (3) разреженная полиномиальная логистическая регрессия через байесовскую регуляризацию L1 (36).Поскольку эти критерии количественно определяют различные характеристики данных, рассмотрение ранжирования всех вышеуказанных критериев позволит получить более информативный набор признаков для классификации, то есть результирующий набор признаков должен оказаться лучше по каждому критерию, рассматриваемому отдельно. На практике сложно комбинировать ранжирование всех этих критериев, потому что диапазон статистических данных различен: следовательно, критерий, генерирующий более высокий диапазон статистических данных, будет преобладать над критериями с более низким диапазоном.Чтобы избежать этой проблемы, AS использует модифицированный процесс аналитической иерархии, который собирает элитный набор функций посредством систематической иерархии. Это достигается путем сравнения характеристик ранжирования набора критериев путем создания сначала матрицы сравнения, элементы которой должны быть транзитивными и непротиворечивыми. Согласованность матрицы сравнения вычисляется с использованием индекса согласованности (CI) и коэффициента согласованности (CR) на основе больших выборок случайных матриц. Пусть ϵ = [ϵ1, ϵ2,…, ϵn] T — собственный вектор, а λ — собственное значение квадратной матрицы X.Тогда мы получим следующее:

Если набор суждений является последовательным, CR не будет превышать 0,1. Если CR = 0, то суждения совершенно непротиворечивы. После построения матриц сравнения собственные векторы (по одному для каждого критерия), которые демонстрируют рейтинговые оценки, вычисляются с использованием иерархического анализа. В результате получается матрица производительности . Затем рейтинг характеристик получается путем умножения матрицы производительности на вектор, представляющий вес важности каждого критерия.Вектор весов обычно получается путем оценки уровня важности каждого критерия по отношению к конкретному аспекту. В этом случае вектор весов был установлен априори на 1 / (количество критериев) (в данном случае 1/3), чтобы избежать смещения.

Kernel Partial Least Squares (kPLS), впервые описанный в (37), представляет собой метод извлечения признаков, который вычисляет нелинейные корреляции между признаками путем аппроксимации заданной матрицы к вектору меток. kPLS — это нелинейное расширение метода частичного наименьшего квадрата (PLS), которое можно рассматривать как более мощную версию анализа главных компонентов (38), так как также в этом случае набор ортогональных векторов (называемых компонентами) вычисляется путем максимизации ковариация между D (наблюдаемые переменные или данные) и C (классы или диагностические метки).

В этой статье мы использовали подход, предложенный в статье Sun et al. (39), для которого весь алгоритм kPLS может быть сформулирован в терминах скалярных произведений между парами входных данных и замещающей функцией ядра K (·, ·). Если X R N × D — это матрица D-мерных наблюдаемых переменных (D) и N числа наблюдений, и если Y R N × C — соответствующая матрица C-мерных классов (C), тогда мы можем отобразить нелинейное преобразование Φ (·) данных в многомерное пространство ядра K , такое, что Φ: xIϵRD → Φ (xI ) ϵK.

Первый компонент для kPLS может быть определен как собственный вектор следующей квадратной ядерной матрицы для βΦ: βΦλ = KXKyβΦ, где K X — элемент матрицы Грама K X в пространстве признаков, а λ — собственное значение. Размер матрицы ядра K X K y составляет N × N независимо от количества переменных в исходных матрицах X и Y .

Если T = { t 1 , t 2 ,…, t h } — это набор компонентов, причем h — желаемое количество компонентов, то объяснение накопления вариации от T до Y можно записать как:

wi = D∑l = 1hΨ (Y, tl) vil2∑l = 1hΨ (Y, tl), i∈ {1,2,…, D}, (4)

, где v il — вес элемента i th для компонента l , Ψ (·, ·) — корреляционная функция, а Ψ ( y j , t l ) — соотношение между t l и Y .Большие значения w i представляют большую пояснительную силу функции i th к Y .

В пространстве ядра kPLS становится проблемой оптимизации:

argmaxα⊆RN {αTS1ΦααTS2Φα} (5)

, где α — соответствующий вектор проекции, а S1Φ и S2Φ — матрица межклассового рассеяния и матрица внутриклассового рассеяния, соответственно. Расчет вклада l -го компонента γ l можно рассчитать как:

γl = ∑i = 1CNimil Φ∑i = 1CNi (6)

, где N i — это количество выборок в классе i , а milΦ — это средний вектор класса i по отношению к компоненту l в пространстве проекции.Чем больше γ l , тем значительнее классификация.

В этой статье мы реализовали ту же версию kPLS, которая была предложена в работе Sun et al. (39) и доступен по адресу https://github.com/sqsun/kernelPLS. Количество компонентов было установлено на 10.

Признаки, извлеченные и / или выбранные из исходных томов МРТ с использованием этих двух разных подходов, затем были использованы в качестве входных данных для классификатора SVM библиотеки LibSVM в Matlab (40) для выполнения задач классификации.

Две модели SVM, полученные на первом этапе этого исследования, затем использовались как сочетание классификаторов обычного машинного обучения.

Подход к трансфертному обучению

Подход с переносом обучения, используемый в этой статье, основан на ансамбле CNN, предварительно обученных на общих изображениях. CNN — это класс искусственных нейронных сетей с прямой связью (ИНС), которые инвариантны к сдвигу и масштабированию. Как и ИНС, CNN состоят из взаимосвязанных нейронов, которые имеют обучаемые веса и смещения.Каждый из нейронов имеет входные данные и выполняет скалярное произведение, за которым может следовать нелинейность.

Слои

CNN имеют нейроны, расположенные в трех измерениях: ширине, высоте и глубине. Другими словами, каждый слой в CNN преобразует трехмерный входной объем в трехмерный выходной объем активации нейронов. CNN — это повторяющееся объединение пяти различных классов уровней: сверточный, активационный, объединяющий, полносвязный и классификационный.

Сверточные слои составляют основные строительные блоки CNN и являются наиболее дорогостоящими в вычислительном отношении.Они вычисляют выходы нейронов, которые подключены к локальным регионам, применяя ко входу операцию свертки. Восприимчивое поле — это гиперпараметр, определяющий пространственную степень связи. Схема совместного использования параметров используется в сверточных слоях для управления количеством параметров. Параметры сверточных слоев — это общие наборы весов (обычно называемые ядрами или фильтрами), которые имеют небольшое принимающее поле.

Уровни объединения выполняют нелинейную операцию понижающей дискретизации.При реализации пула используются различные нелинейные функции, причем максимальный пул является одним из наиболее распространенных методов. Max-pooling разделяет вход на набор неперекрывающихся прямоугольников и выводит максимум для каждой группы. Таким образом, объединение уменьшает пространственный размер представления, уменьшая, как следствие, количество параметров и вычислительную сложность сети. Уменьшение количества задействованных функций приводит к уменьшению проблем с переоборудованием. Слой объединения обычно вставляется между сверточными слоями.

Слои активации применяют некоторые функции активации, такие как функция ненасыщения f ( x ) = max (0, x ) или гиперболический тангенс насыщения f ( x ) = tanh ( x ) или сигмовидной функции f ( x ) = (1 + e x ) −1 .

Полностью связанные слои имеют полные соединения со всеми активациями в предыдущем слое и применяются после сверточных слоев и слоев пула.Полностью связанный слой можно легко преобразовать в сверточный, поскольку оба слоя вычисляют скалярные произведения, то есть их функциональная форма одинакова.

Последний уровень — это уровень классификации, который выполняет этап классификации и возвращает выходные данные сети глубокого обучения.

Учитывая относительно небольшое количество данных, доступных в этом исследовании (от минимум 76 до максимум 164 пациентов на диагностический класс) в отношении количества выборок, необходимых для обучения модели CNN, которая является стабильной, беспристрастной и не перегруженной. , мы не могли обучить всю архитектуру глубокого обучения с нуля (со случайной инициализацией).Для обучения CNN с нуля действительно требуется больше обучающих выборок, чем для обучения обычного машинного обучения. Количество обучающих выборок может значительно уменьшиться, если используются предварительно обученные модели, например, в трансферном обучении (22, 23), в котором CNN предварительно обучается на очень большом наборе данных (обычно) общего изображения, веса предварительно обученного Затем выполняется точная настройка сети с использованием выборок, которые конкретно относятся к целевой задаче, и уровень классификации на вершине сети заменяется соответствующим образом.

Чтобы уменьшить количество проблем, возникающих при выборе одной сети, мы использовали разные предварительно обученные сети, тем самым разработав разные модели CNN. Результаты классификации этих архитектур были затем объединены с помощью правила сумм в подходе ансамблевого обучения с переносом. Были использованы следующие предварительно обученные сети:

• AlexNet [победитель конкурса ImageNet ILSVRS в 2012 году; (17)] состоит как из сложенных, так и из связанных слоев и включает пять сверточных слоев, за которыми следуют три полностью связанных слоя с максимальным объединением слоев между ними.Выпрямленная линейная единичная нелинейность применяется к каждому сверточному слою вместе с полносвязным слоем, чтобы обеспечить более быстрое обучение.

• GoogleNet [победитель конкурса ImageNet ILSVRS в 2014 году; (41)] — это алгоритм глубокого обучения, в конструкции которого появился так называемый модуль Inception, подсеть, состоящая из параллельных сверточных фильтров, выходы которых объединены. Inception значительно сокращает количество требуемых параметров. GoogleNet состоит из 22 уровней, требующих обучения (всего 27 уровней, включая уровни объединения).

• ResNet [победитель ILSVRC 2015; (42)], архитектура, которая примерно в двадцать раз глубже, чем AlexNet; его главная новинка — введение остаточных слоев, своего рода архитектуры «сеть в сети», которая формирует строительные блоки для построения сети. ResNet использует специальные пропускаемые соединения и пакетную нормализацию, а полностью подключенные уровни в конце сети заменяются глобальным средним пулом. Вместо изучения функций, на которые не ссылаются, ResNet явно переформулирует слои как обучающие остаточные функции со ссылкой на входной уровень, что делает модель меньше по размеру и, следовательно, ее легче оптимизировать, чем в других архитектурах.

• Inception-v3 (43), глубокая архитектура из 48 слоев, способная классифицировать изображения по 1000 категориям объектов; Сеть была обучена на более чем миллионе изображений, полученных из базы данных ImageNet (что привело к богатому представлению функций для широкого диапазона изображений). Inception-v3 занял первое место в конкурсе ImageNet ILSVRC в 2015 году.

CNN

предназначены для работы с изображениями RGB (3 канала), тогда как MRI хранят информацию в трехмерных одноканальных объемах.Чтобы использовать потенциал трансферного обучения с помощью предварительно обученных 2D-архитектур, мы ввели метод декомпозиции 3D-МРТ на 2D-изображения, подобные RGB, которые можно было бы передать в предварительно обученные 2D-архитектуры для целей передачи-обучения.

В этом методе срезы МРТ, когда-то совместно зарегистрированные в шаблоне мозга MNI, используются как полосы 2D RGB. В частности, 3 разных среза МРТ складываются вместе, чтобы сформировать одно изображение, подобное RGB. Затем мы ввели переменную «пробел», которая соответствует «расстоянию» между 3-мя срезами МРТ (т.е.е., тот, который используется для диапазона «R», и тот, который используется для диапазонов «G» и «B»). Переменная «разрыв» измеряется как разница между количеством срезов МРТ (например, если «разрыв» равен 1, 3 среза МРТ находятся рядом).

Были использованы четыре различных подхода (A, B, C, D) для формирования изображения, подобного RGB, в зависимости от ориентации рассматриваемых срезов МРТ, то есть сагиттального, коронарного или трансаксиального:

A. Полоса «R» — это n-й сагиттальный срез исходного объема 3D МРТ, полоса «G» — сагиттальный срез (n-й + промежуток) исходного объема 3D МРТ, а полоса «B» — это (n-й + 2 × промежуток) сагиттальный срез исходного объема 3D МРТ;

Б.Полоса «R» — это n-й корональный срез исходного объема 3D МРТ, полоса «G» — корональный срез (n-й + промежуток) исходного объема 3D МРТ, а полоса «B» — это (n- th + 2 × gap) коронарный срез исходного объема 3D МРТ;

C. Полоса «R» — это n-й трансаксиальный срез исходного объема 3D МРТ, полоса «G» — это трансаксиальный срез (n-й + промежуток) исходного объема 3D МРТ, а полоса «B» — это (n-й + 2 × промежуток) трансаксиальный срез исходного объема 3D МРТ;

D. «R» — это n-й сагиттальный срез исходного объема 3D МРТ, полоса «G» — корональный срез (n-й + промежуток) исходного объема 3D МРТ, а полоса «B» — это ( n-й + 2 × промежуток) трансаксиальный срез исходного объема 3D МРТ.

(Подход D — единственный, в котором разные ориентации МРТ-срезов используются вместе).

Различные модели переноса обучения были обучены для различных конфигураций RGB-подобных изображений испытуемых.

Обучающие и классификационные тесты выполнялись с зазором ∈ {0,1,2} и n, начиная с первого среза исходного объема 3D МРТ. Например, при рассмотрении подхода «A», когда промежуток = 1 и n = 1, соответствующее RGB-подобное изображение является 2D-изображением, в котором полосы «R», «G» и «B» являются первыми тремя сагиттальными срезами. исходного объема 3D МРТ.

Таким образом, внутрисубъектная пространственная структурная информация сохраняется как в плоскости x-y, так и в измерении z. В приведенном выше примере каждое 2D-изображение, подобное RGB, содержит всю исходную информацию МРТ в сагиттальной плоскости. То же самое верно и в сагиттальном направлении, хотя и ограничено глубиной трех срезов.

Кроме того, для каждой конфигурации RGB-подобных изображений испытуемых использовались разные модели трансфер-обучения.

Например, RGB-подобное изображение пациента с центром на срезе №2 используется в процессе обучения и классификации только с RGB-подобными изображениями других пациентов, центрированными на том же срезе №2.

Поскольку тома МРТ совместно регистрируются в одном и том же шаблоне мозга MNI, все RGB-подобные изображения, сосредоточенные на одном и том же срезе, также должны быть совместно зарегистрированы между ними, и, таким образом, данные, используемые для обучения каждой модели переноса обучения, относятся одинаковые MNI координируют и содержат одинаковую морфологическую и структурную информацию для разных субъектов.

Таким образом сохраняется межсубъектная пространственная структурная информация.

Поскольку каждая отдельная модель (по одной для каждого значения «n») возвращала индивидуальные выходные данные классификации, окончательная классификация была получена путем объединения (с помощью правила сумм) выходных данных классификации всех RGB-подобных изображений, составляющих данный объем МРТ.

Следует отметить, что в этом процессе «глубина» слоев CNN соответствует трем различным срезам MRI, которые используются в качестве диапазонов RGB. В процессе обучения сверточными фильтрами слоев CNN используется пространственная структурная информация из этих трех полос RGB. Более того, что касается процесса объединения, максимальный размер матрицы фильтра объединения составляет 3 на 3, что плохо влияет на пространственный размер представления изображения.

Оптимальное количество эпох оценивалось как количество эпох, для которых сеть достигла минимальной ошибки обучения (сходимости).Скорость обучения была установлена ​​на 0,0001, и использовалась мини-партия с 30 наблюдениями на каждой итерации. Никакого увеличения данных не производилось.

Модели глубокого обучения, полученные на первом этапе этого исследования, затем были использованы в ансамбле моделей трансферного обучения. Все анализы передачи-обучения выполнялись в вычислительной системе с выделенным графическим процессором Nvidia GeForce GTX Titan X (объем памяти 12 ГБ).

Подход глубокого обучения

Новая 3D CNN была обучена с нуля с использованием объемов МРТ из двух рассматриваемых наборов данных.

Наша трехмерная архитектура CNN состояла из следующих трехмерных слоев: (1) сверточный слой, (2) слой выпрямленных линейных единиц (ReLU), (3) слой максимального объединения, (4) полностью связанный слой, (5) мягкий -max слой и (6) окончательный классификационный слой.

Размер входного 3D-слоя был установлен равным 28 на 28 на 121. Шаг сверточных слоев и шаг слоев max-pooling были установлены равными 4.

Чтобы выполнить обучение и оптимизацию сети, МРТ-сканирование затем было разделено на участки размером 28 на 28 на 121, без перекрытия, и окончательная классификация была получена путем объединения (с помощью правила сумм) результатов классификации всех пластыри, составляющие данный объем МРТ.

Обучение и оптимизация сети были выполнены с использованием оптимизации стохастического градиентного спуска с моментумом (SGDM), начальная скорость обучения равнялась 0,0001. Анализы проводились на вычислительной системе с выделенным графическим процессором Nvidia GeForce GTX Titan X (объем памяти 12 ГБ).

Оценка эффективности и сравнение различных методов

Были протестированы следующие методы классификации: AS + SVM, kPLS + SVM, слияние этих двух SVM (метод № 1), пять двухмерных архитектур с переносом обучения, рассматриваемых индивидуально, т.е.е., AlexNet, GoogleNet, ResNet50, ResNet101, InceptionV3, один 3D CNN, обученный с нуля на объемах МРТ, и ансамбль между этими CNN с помощью правила сумм (Метод № 2).

Процедура оценки производительности была выполнена — для обоих наборов данных Salvatore-509 и Moradi-264 — с использованием (1) той же стратегии проверки, (2) тех же индексов проверки и (3) тех же двоичных сравнений, принятых в исходных документах. . В обоих случаях все этапы классификации (включая извлечение / выбор признаков и саму автоматическую классификацию) были встроены в стратегию вложенной перекрестной проверки (CV).Это позволило нам выполнить оптимизацию входных параметров, то есть найти лучшую конфигурацию параметров, которая будет использоваться для этой конкретной задачи классификации. Однако, чтобы уменьшить проблемы с переобучением, мы сохранили количество гиперпараметров, которые нужно оптимизировать, как можно меньшим.

Следующие бинарные сравнения были выполнены с использованием набора данных Salvatore-509 : AD против CN, MCIc против CN, MCIc против MCInc. При использовании набора данных Moradi-264 только MCIc vs.Бинарное сравнение MCInc было выполнено из-за отсутствия исследований AD и CN в этом наборе данных. Эффективность предложенных методов классификации для этих сравнений оценивалась с помощью AUC (Area Under the ROC Curve) (44).

После индивидуальной оценки обучающих систем методы №1 и №2 были обучены и протестированы с использованием (1) всего объема МРТ или (2) внутренних церебральных структур (включая область гиппокампа), полученных из всего объема МРТ.

Результаты

Участники, наборы данных и предварительная обработка МРТ

Демографические характеристики пациентов, рассматриваемых в этой статье, согласуются с данными предыдущих исследований, в которых использовались те же наборы данных из общедоступного репозитория ADNI.В частности, что касается набора данных Salvatore-509 , четыре группы участников (а именно AD, MCIc, MCInc и CN) не показали статистически значимых различий по возрасту и полу, в то время как статистически значимые различия были обнаружены для баллов MMSE между CN. и AD и между CN и MCIc. Что касается набора данных Moradi-264 , две группы пациентов (MCIc и MCInc) показали одинаковый возрастной диапазон (55-89 для MCIc, 57-89 для MCInc), но небольшое преобладание мужчин в группе MCInc (66 %) по отношению к группе MCIc (59%).Более подробную информацию можно найти в оригинальных публикациях (11, 12) соответственно.

Предварительная обработка МРТ, включая переориентацию, обрезку, удаление черепа, совместную регистрацию и сегментацию, была выполнена правильно для всех сканирований в двух рассматриваемых наборах данных. На изображениях не было обнаружено никаких неоднородностей или артефактов при визуальном осмотре как до, так и после предварительной обработки МРТ. На рисунке 1 показаны (в качестве репрезентативного примера) МРТ-сканирование пациента MCInc (A) и пациента MCIc (B) из набора данных Moradi-264 после фазы предварительной обработки с точки зрения карт вероятности ткани серого вещества. -зарегистрирован по шаблону MNI.Сечения показаны как в осевом (вверх), так и в сагиттальном (вниз) виде. На осевом виде представлены срезы 20, 30, 40, 50, 65 и 80; на сагиттальном виде представлены срезы 61, 66, 71, 80, 90 и 100.

Рисунок 1 . Срезы МРТ головного мозга пациента MCInc (A) и пациента MCIc (B) из набора данных Moradi-264 после предварительной обработки (включая совместную регистрацию в шаблоне MNI и сегментацию на серое вещество). Сечения показаны как в осевом (вверх), так и в сагиттальном (вниз) виде.На осевом виде представлены срезы 20, 30, 40, 50, 65 и 80; на сагиттальном виде представлены срезы 61, 66, 71, 80, 90 и 100.

Классификация, оценка эффективности и сравнение различных методов

В таблице 1 показаны характеристики классификации рассмотренных традиционных подходов ML для классификации AD по сравнению с CN, MCIc по сравнению с CN и MCIc по сравнению с MCInc, соответственно. Результаты были получены для двух функций извлечения / выбора плюс SVM на всех объемах МРТ.Производительность, полученная двумя классификаторами обычного ML с точки зрения AUC, сравнима и точна для обеих задач AD против CN (> 0,93) и MCIc против CN (> 89,5), показывая некоторые ограничения в задаче MCIc против MCInc ( <70%). Не было обнаружено статистической разницы между характеристиками, полученными двумя методами, указанными в таблице 1 (статистическое сравнение с помощью однофакторного дисперсионного анализа). Соответственно, мы не выбрали один классификатор на основе SVM для последующего анализа, но мы выполнили слияние SVM.

Таблица 1 . Классификация по AUC для AS + SVM и kPLS + SVM.

Таблица 2 показывает эффективность классификации архитектур с переносом обучения для классификации AD по сравнению с CN, MCIc по сравнению с CN и MCIc по сравнению с MCInc, соответственно, на всех томах МРТ. Результаты были получены для двух предварительно обученных архитектур (например, AlexNet и GoogleNet) на разных конфигурациях с точки зрения зазора (0, 1, 2 или их комбинация с помощью правила сумм) и подхода MRI-разложения (A, B , C, D или их комбинация с помощью правила сумм).

Таблица 2 . Производительность классификации с точки зрения AUC AlexNet и GoogleNet после точной настройки с использованием различных значений Gap и подходов к MRI-декомпозиции.

Производительность классификации (AUC) показывает, что комбинация различных интервалов и различных подходов MRI-разложения улучшает возможности архитектуры в задачах распознавания. Таким образом, мы применили этот окончательный подход (комбинацию трех подходов Gaps и четырех MRI-декомпозиции ) ко всем архитектурам передачи-обучения для следующих анализов.Этот результат показывает, что различные подходы к декомпозиции могут иметь возможность сохранять различную пространственную информацию, и, таким образом, комбинация различных методов декомпозиции может быть полезным способом использовать как можно больше пространственной информации без необходимости обучения с нуля новой трехмерной сети ( намного дороже с точки зрения вычислительных затрат).

В таблице 3 показаны характеристики классификации всех 5 рассмотренных предварительно обученных архитектур (записи с 1 по 5) и 3D CNN, обученной с нуля на томах МРТ (запись n.6) для классификации AD по сравнению с CN, MCIc по сравнению с CN и MCIc по сравнению с MCInc, соответственно. Для предварительно обученных 2D-архитектур результаты были получены после точной настройки всех объемов МРТ. Сходимость к минимальной ошибке обучения была достигнута для всех предварительно обученных 2D-архитектур в течение 20 эпох. Лучшей сетью для AD и CN и MCIc против CN является AlexNet с 90,8 и 84,2% AUC соответственно. Лучшими показателями для MCIc по сравнению с MCInc является ResNet101 со средним значением AUC 71,2% (усредненным между результатами, полученными на наборах данных Salvatore-509 и Moradi-264 , не усредненные результаты см. В дополнительных материалах), показывающий аналогичные ограничения, как у обычного машинного обучения в MCIc vs.Задача MCInc (AUC <71,5%). Однако не было обнаружено статистической разницы между 5 предварительно обученными 2D-архитектурами (односторонний дисперсионный анализ). Согласно этим результатам, мы использовали ансамбль из 5 таких архитектур для последующего анализа.

Таблица 3 . Производительность классификации с точки зрения AUC различных предварительно обученных архитектур с глубоким / трансференционным обучением, рассматриваемых индивидуально.

3D CNN достигла конвергенции за 80 эпох с AUC 84,1% при классификации AD vs.CN, 72,3 для MCIc по сравнению с CN и 61,1 для MCIc по сравнению с MCInc, что ниже, чем полученный при обычном ML и 2D обучении с переносом из-за ограниченной выборки изображений, используемых для обучения. Основываясь на этих результатах, для последующего анализа использовались только предварительно обученные 2D-архитектуры.

Показано сравнение слияния SVM, созданных из AS + SVM и kPLS + SVM (Метод № 1), и модели трансфер-обучения, построенной как ансамбль отдельных предварительно обученных архитектур, полученных выше (Метод № 2). в таблице 4 на всех объемах МРТ или на внутренних структурах головного мозга.

Таблица 4 . Производительность классификации с точки зрения AUC слияния обычного ML (Метод № 1) и обучения с переносом ансамбля (Метод № 2) с использованием всего объема МРТ или внутренних структур головного мозга (включая область гиппокампа).

Как показано в таблице, слияние классификаторов традиционного машинного обучения (метод № 1), кажется, работает лучше, чем метод ансамблевого обучения с переносом, принятый в этой работе (метод № 2).

Это немного верно, когда используется весь объем МРТ, и лучше оценивается, когда используются только внутренние церебральные структуры объема МРТ.Действительно, при рассмотрении автоматического различения AD по сравнению с CN и MCIc по сравнению с CN на основе всего объема МРТ классификаторы обычного ML получили AUC> 93% и> 90,5, соответственно, в то время как производительность, полученная с помощью ансамблевого обучения с переносом классификатора составили 90,2 и 83,2% соответственно. Однако, при рассмотрении различения MCIc-vs-MCInc, характеристики объединенных традиционных ML улучшаются с 69,1% до 73,3% с использованием внутренних церебральных структур вместо всего объема МРТ, в то время как характеристики, полученные из внутренних структур с помощью ансамблевой передачи — уровень обучения остается стабильным на уровне 70.6%.

Обсуждение

Во многих исследованиях в литературе оценивался потенциал обычного ML в автоматической классификации AD по сравнению с CN и MCIc по сравнению с MCInc, используя только структурные данные МРТ головного мозга [например, (11, 12, 33, 45–58)], получая классификационные характеристики выше 0,80 для задачи AD против CN и от 0,50 до 0,70 для задачи MCIc против MCInc. В целом, обычные алгоритмы ML, применяемые к данным нейровизуализации, показывают средний процент AUC при различении AD и CN 0,94) (по результатам обзора на 10).Однако при рассмотрении наиболее клинически значимого сравнения, MCIc против MCInc, средний процент AUC снижается до 0,70 ± 5 (средняя точность = 0,66 ± 0,13) (13).

С целью сравнения методов глубокого / трансферного обучения и традиционных методов машинного обучения на одном и том же наборе данных МРТ головного мозга, в настоящем исследовании мы реализовали и оценили различные методы глубокого / трансферного обучения для автоматической ранней диагностики и прогноза БА, включая очень популярные системы предварительной подготовки и обучение с нуля новому методу глубокого обучения.Затем мы сравнили их эффективность с различными традиционными методами машинного обучения, реализованными и оцененными для той же диагностической и прогностической задачи.

Сосредоточившись на традиционном машинном обучении, реализованном в этой работе, производительность, полученная путем слияния двух классификаторов обычных SVM (полученных с помощью двух разных стратегий извлечения / выбора признаков), сопоставима и точна для обеих задач AD и CN (AUC> 93 %) и MCIc vs. CN (AUC> 89%), демонстрируя некоторые ограничения в более сложных и сложных задачах MCIc vs.Задача MCInc (AUC ~ 69%).

Предыдущие исследования с использованием традиционных методов машинного обучения на том же наборе данных, который использовался в этой работе, показали сопоставимую производительность с нашими реализованными методами машинного обучения. В частности, в статье Nanni et al. (33) авторы использовали набор данных Salvatore-509 , получив 93% AUC при различении AD от CN, 89% для MCIc от CN и 69% для MCIc от MCInc.

Однако, когда стратегия слияния применялась к SVM, обученным на всех сканированиях МРТ (метод № 1), не наблюдалось эффективного улучшения в трех задачах различения, получая 93% AUC в AD по сравнению сCN, 91% AUC в MCIc по сравнению с CN и 69% AUC в MCIc по сравнению с MCInc.

Что касается трансферного обучения, мы реализовали 5 популярных архитектур: AlexNet, GoogleNet, ResNet50, ResNet101 и InceptionV3. Лучшей индивидуальной архитектурой для отличия AD от CN и MCIc от CN является AlexNet, которая дает 91% и 84% AUC для этих двух задач соответственно. Однако при различении MCIc от MCInc лучшей индивидуальной моделью является ResNet101 с AUC 71%, представляя те же ограничения систем машинного обучения в этой задаче.

В такой реализации передачи-обучения нашим основным техническим вкладом было предложение эффективного метода разложения 3D-изображений МРТ на полосы RGB, сохраняющего внутри- и межсубъектную пространственную структурную информацию исходных 3D-изображений МРТ, и использование этих разложений для передачи. обучение с помощью эффективных 2D предварительно обученных архитектур CNN. В частности, чтобы уменьшить потерю информации, были реализованы различные подходы разложения MRI-to-RGB, а затем была применена комбинация этих различных подходов разложения (см. Таблицу 2).Результаты, полученные в этой работе на предварительно обученных 2D-архитектурах, ясно показывают, что комбинация различных способов разложения томов МРТ на двумерные изображения, питающие предварительно обученные архитектуры, приводит к более высокой производительности во всех диагностических задачах. Это может означать, что разные способы разложения МРТ приносят разную эффективную информацию, улучшающую способность распознавания систем, обученных на общих изображениях для разных фенотипов БА.

Пространственная структурная информация важна для 3D-изображений МРТ.Предварительно обученные 3D CNN появляются в медицинских приложениях, однако 2D CNN все еще более распространены и более широко используются и проверяются в литературе. Преимущество использования предварительно обученных 2D-архитектур обусловлено большой доступностью естественных изображений, используемых для предварительного обучения таких нейронных сетей. Если бы предварительно обученные 2D-архитектуры были применимы к объемам 3D-МРТ посредством предлагаемой нами декомпозиции с последующим переносным обучением, это открыло бы новые перспективы в разработке моделей передачи-обучения на основе МРТ не только для диагностики БА, но и для других заболеваний ( е.г. рак, сердечно-сосудистые заболевания) и другие медицинские 3D-изображения (например, КТ, ПЭТ).

Что касается архитектур сетей, используемых для предлагаемого подхода к передаче-обучению, объединение обычно уменьшает пространственный размер представления. Однако это совершенно необходимо в процессе изучения глубоких архитектур, поскольку сокращает объем обрабатываемой информации, что приводит к снижению вычислительных затрат. В нашей работе, чтобы сохранить как можно больше пространственной информации, максимальный размер принятых фильтров объединения был 3 на 3, что гарантирует неинвазивное сокращение пространственной даунсэмплинга.

Наша окончательная стратегия передачи-обучения привела к ансамблю различных предварительно обученных архитектур и к комбинации различных подходов для декомпозиции томов МРТ и построения RGB-подобных изображений , которые могут быть прочитаны этими архитектурами. Эта стратегия позволила эффективно различать фенотипы, связанные с AD, с максимальной точностью их независимых архитектур передачи-обучения, в результате чего получилось следующее: 90% для AD против CN, 83% для MCIc против CN и 71% для MCIc vs.MCInc.

Производительность предлагаемых нами методов трансферного обучения (например, AUC в AD против CN 90%, метод 2). согласуется с опубликованными статьями о методах глубокого обучения, применяемых на многих сотнях МРТ-изображений для диагностики БА, и появившихся с 2017 года. Большинство работ в этой области исследований сосредоточено на различении БА от ХН. Например, Aderghal et al. (59) использовали подход 2D-CNN, извлекая информацию из области интереса гиппокампа и дополнительно применяя увеличение данных; их подход привел к точности 91%.Cheng et al. (60) и Королев и др. (61) использовали подход 3D-CNN для той же задачи, первый из которых достигает 92% AUC, второй — 88% AUC за счет реализации архитектуры, вдохновленной ResNet. (42) Стоит отметить, что могут быть реализованы различные стратегии, выходящие за рамки изображений МРТ. . Например, Ortiz et al. (62) объединили МРТ и ПЭТ-визуализацию с использованием ансамбля архитектур глубокого обучения в заранее определенных областях мозга, достигнув 95% AUC для классификации AD и CN.

В новаторской статье Suk et al.(63) авторы обучили на многих сотнях изображений МРТ глубокую трехмерную сеть с ограниченным аппаратом Больцмана, чтобы классифицировать MCIc по сравнению с MCInc с 73% AUC (эта статья: 73% метод 1, 71% метод 2). Лю и др. (64) использовали другую стратегию, основанную на каскадной CNN, предварительно обученной на участках трехмерного изображения, чтобы получить 82,7% AUC для MCIc по сравнению с CN при использовании нескольких сотен данных МРТ (90,6% AUC для AD по сравнению с CN), в то время как Cui et al. . (65) предложили подход, основанный на рекуррентных нейронных сетях, достигающих 71,7% для MCIc по сравнению с MCInc на основе набора из сотен продольных МРТ-изображений (точность 91% для AD vs.CN).

С вычислительной точки зрения наши результаты показывают, что ансамбль двумерных предварительно обученных CNN является многообещающим подходом, поскольку он может достигать производительности, сравнимой, хотя и незначительно, с производительностью, полученной при обучении с нуля. обучающие сети с использованием многих сотен медицинских изображений, но с гораздо меньшими вычислительными затратами или ограниченным количеством доступных медицинских изображений. Тот факт, что производительность предложенных архитектур с переносом обучения, предварительно обученных на немедицинских изображениях, аналогична производительности сетей, обученных с нуля на медицинских изображениях и с использованием трехмерной пространственной информации, предполагает, что функции, изученные в предварительно обученных сетях эффективно переносятся в медицинские изображения с существенным сокращением количества изображений и, как следствие, количества вычислительного времени, необходимого для предварительного обучения или обучения новых глубоких сетей с нуля.

Насколько нам известно, это одно из первых исследований, в котором проводится сравнение обычного машинного обучения, глубокого / трансферного обучения для диагностики и прогноза БА на одном и том же наборе томов МРТ, что позволяет получить сопоставимые результаты. Согласно этим результатам, ансамбль двумерных предварительно обученных CNN показал сопоставимый или немного более низкий потенциал по сравнению с объединением систем обычного машинного обучения. 3D CNN, обученная с нуля на исходных объемах 3D MRI от Salvatore-509, Moradi-264 показала более низкую производительность, чем сочетание традиционных систем ML и ансамбля 2D предварительно обученных CNN, из-за ограниченного набора используемых изображений. для тренировки.

Сосредоточившись на основном сравнении двух подходов, рассмотренных в этой работе — традиционного машинного обучения и трансферного обучения — ансамблевое трансферное обучение показывает сопоставимые результаты со слиянием подходов традиционного машинного обучения, даже если слияние традиционного машинного обучения еще выше. чем ансамблевое трансферное обучение для менее сложных задач AD против CN (93,2 против 90,2% AUC) и MCIc против CN (90,6 против 83,2% AUC). Этот лучший результат, полученный слиянием SVM, может быть связан с обучением с нуля.

На самом деле, недавно были предложены продвинутые глубокие сети для диагностики БА на основе трехмерной МРТ и прогнозирования конверсии из MCI в AD с использованием анатомических ориентиров или схем обнаружения внимания к деменции, чтобы локализовать эту информацию в областях мозга МРТ, тем самым облегчая небольшие проблемы. проблема размера выборки (66–69). В нашей работе мы обучили с нуля новую трехмерную CNN, достигнув более низкой производительности по сравнению с другими рассматриваемыми методами обучения с переносом 2D (84% против [89-91]% для AD против CN, 72% против[80-84]% для MCIc по сравнению с CN, 61% по сравнению с [69-71]% для MCIc по сравнению с MCInc). Однако мы хотели бы подчеркнуть, что для обучения 3D CNN с нуля требуется огромное количество обучающих данных. Хотя оценка количества образцов, необходимых для обучения классификатора глубокого обучения с нуля с хорошей производительностью, все еще остается открытой исследовательской проблемой, некоторые исследования пытались изучить эту проблему. По словам Джубы и др. (70) количество данных, необходимых для обучения, зависит от сложности модели. Эмпирическое правило, вытекающее из их статьи, заключается в том, что для обучения простой модели, такой как регрессор, нам нужно 10 кейсов на каждый предиктор, а для обучения с нуля классификатора глубокого обучения, такого как CNN, нам нужно 1000 изображений на класс.Эти цифры далеки от тех, которые доступны в наших наборах данных AD, где самым большим классом в наборе данных Salvatore-509 был CN с 162 субъектами, а меньшим — MCIc с 76 пациентами. Это также может объяснить более низкую производительность нашей 3D CNN по сравнению с опубликованными статьями о методах глубокого обучения, применяемых на многих сотнях МРТ-изображений для диагностики БА.

С клинической точки зрения, в этой статье основное внимание уделялось объемам МРТ всего мозга. Этот выбор был сделан для того, чтобы сохранить как можно больше информации, связанной с ранним заболеванием БА, которая могла поступать из разных областей мозга (например,g., теменная и задняя поясная извилина области, предклинье, медиальные височные области, гиппокамп, миндалевидное тело и энторинальная кора). Использование региональных биомаркеров данной анатомической структуры (например, гиппокампа) действительно может привести к исключению потенциально дискриминантной информации для ранней диагностики БА.

Однако один из анализов, выполненных в этой работе, был сосредоточен на внутренних церебральных структурах (включая гиппокамп), а не на всем объеме МРТ. С этой точки зрения этот анализ дал важную обратную связь о поведении обученных моделей.Как и ожидалось, модели, обученные с использованием внутренних структур головного мозга, показали более высокую производительность, чем модели, основанные на МРТ всего мозга. В частности, результаты показывают эффективное улучшение характеристик классификации для наиболее сложной задачи распознавания MCIc-vs-MCInc. Средний процент AUC увеличивается с 69,1 до 73,3. Этот восходящий тренд не воспроизводится при рассмотрении других сравнений (AD против CN, MCIc против CN), которые остаются стабильными. Такое поведение не является неожиданным, потому что внутренние мозговые структуры (в частности, медиальная височная доля, включая парагиппокампальную извилину), как известно, являются первыми областями, затронутыми патофизиологическими механизмами БА даже на продромальной стадии или стадиях MCI (71).Из-за этого выбор для данных тренировки внутренних структур мозга МРТ может помочь в автоматической классификации БА на ранних стадиях (MCIc против MCInc) без затрат на классификацию диагноза на более поздних стадиях, когда характер атрофии более выражен широко распространены (например, 49). Даже если это не неожиданность, эти результаты показывают нам совершенство процесса обучения, включая предварительную обработку и подход декомпозиции, предложенный в этой работе.

Ограничения

Следует отметить, что на результаты, полученные с помощью предлагаемого метода, могут влиять две специфические проблемы, связанные с применением трансферного обучения к объемам МРТ.Первое и самое важное, методы глубокого обучения — и в частности CNN — предназначены для наилучшего решения задач компьютерного зрения, таких как распознавание визуальных объектов или обнаружение объектов (18). Это делает их подходящими для медицинских приложений, таких как автоматическое обнаружение и сегментация онкологических поражений [например, (19, 72)], которые обычно включают локально ограниченные области. С другой стороны, диагностика БА с помощью обследования МРТ включает распознавание паттерна церебральной атрофии, которая является распределенной (а не локализованной).Во-вторых, использование методов передачи-обучения вместо обучения новой сети с нуля может повлиять на этап обучения самой сети на этапе тонкой настройки. Как мы упоминали выше, выбор использования подхода с переносом обучения в этом случае был почти обязательным, учитывая относительно небольшое количество доступных данных относительно количества выборок, необходимых для обучения модели CNN с нуля. Однако изображения, используемые для предварительного обучения сети (общие изображения), особенно отличались от изображений, используемых для точной настройки и классификации новых образцов (сканирование МРТ).Это может снизить потенциал сети в изучении представлений признаков, которые специфичны для контекста медицинской визуализации, что повлияет на окончательную классификационную характеристику модели. Несмотря на эти два критических замечания, результаты, полученные в этой статье, сопоставимы с современным уровнем техники и, таким образом, способствуют применению трансферного обучения к структурным данным МРТ, даже если требуется дальнейшая оптимизация при рассмотрении сетей, предварительно обученных на общих изображениях разная природа.

Выводы

В заключение, в этой статье мы исследовали потенциальное применение глубокого / трансферного обучения для автоматической ранней диагностики и прогноза БА по сравнению с обычным машинным обучением.

Подход с переносом обучения позволил эффективно отличить AD от CN с 90,2% AUC, MCIc от CN с 83,2% AUC и MCIc от MCInc с AUC 70,6%, показывая сопоставимые или немного более низкие результаты по сравнению с слиянием обычных — Системы ML (AD от CN с 93.1% AUC, MCIc от CN с 89,6% AUC и MCIc от MCInc с AUC в диапазоне 69,1–73,3%). Эти результаты открывают новые перспективы использования трансфертного обучения в сочетании с нейровизуальными изображениями для автоматической ранней диагностики и прогноза БА, даже при предварительном обучении на общих изображениях. Сеть глубокого обучения, обученная с нуля на нескольких сотнях томов МРТ, показала более низкую производительность, чем сочетание традиционных систем машинного обучения и ансамбля 2D предварительно обученных CNN, из-за ограниченной выборки изображений, используемых для обучения.

Заявление о доступности данных

В данном исследовании были проанализированы общедоступные наборы данных. Эти данные можно найти здесь: ADNI (Инициатива по нейровизуализации болезни Альцгеймера).

Авторские взносы

LN, CS и IC задумали настоящую исследовательскую работу. IC отвечал за поиск наборов данных, используемых в этом исследовании. LN, MI и CS спланировали и реализовали анализ данных (который относится к подготовке данных, обработке изображений и классификации).Рукопись написали LN, MI и CS. SB, SP, RN и IC просмотрели и отредактировали рукопись. Работы контролировались IC и CS. Все авторы внесли свой вклад в статью и одобрили представленную версию.

Конфликт интересов

IC и MI владеют акциями DeepTrace Technologies S.R.L. CS является генеральным директором DeepTrace Technologies S.R.L. DeepTrace Technologies S.R.L является дочерним предприятием Scuola Universitaria Superiore IUSS Pavia, Италия.

Остальные авторы заявляют, что исследование проводилось при отсутствии каких-либо коммерческих или финансовых отношений, которые могли бы быть истолкованы как потенциальный конфликт интересов.

Благодарности

Мы выражаем особую благодарность доктору Антонио Сераза за его комментарии о клинических диагностических процессах болезни Альцгеймера и ее патофизиологических механизмах.

Сбор данных и обмен данными для этого проекта финансировались Инициативой нейровизуализации болезни Альцгеймера (ADNI) (грант Национального института здравоохранения U01 AG024904) и DOD ADNI (номер награды Министерства обороны W81XWH-12-2-0012). Инициатива нейровизуализации болезни Альцгеймера финансируется Национальным институтом старения, Национальным институтом биомедицинской визуализации и биоинженерии, а также за счет щедрых взносов следующих организаций: AbbVie, Ассоциация Альцгеймера; Фонд открытия лекарств при болезни Альцгеймера; Араклон Биотех; BioClinica, Inc.; Биоген; Компания Бристол-Майерс Сквибб; ЦереСпир, Инк .; Cogstate; Eisai Inc .; Elan Pharmaceuticals, Inc .; «Эли Лилли и компания»; Евроиммун; F. Hoffmann-La Roche Ltd. и ее дочерняя компания Genentech, Inc.; Fujirebio; GE Healthcare; IXICO Ltd .; ООО «Янссен Альцгеймер по исследованиям и разработкам иммунотерапии»; ООО «Джонсон и Джонсон Фармасьютикал Исследования и Девелопмент»; Светимость; Лундбек; Merck & Co., Inc.; ООО «Мезомасштабная диагностика»; NeuroRx Research; Neurotrack Technologies; Корпорация Новартис Фармасьютикалз; Pfizer Inc.; Пирамальная визуализация; Сервье; Фармацевтическая компания Такеда; и переходная терапия. Канадские институты медицинских исследований предоставляют средства для поддержки клинических центров ADNI в Канаде. Взносы частного сектора поддерживаются Фондом национальных институтов здравоохранения (www.fnih.org). Грантополучателем является Институт исследований и образования Северной Калифорнии, а исследование координируется Институтом терапевтических исследований Альцгеймера при Университете Южной Калифорнии.Данные ADNI распространяются Лабораторией нейровизуализации Университета Южной Калифорнии.

Дополнительные материалы

Дополнительные материалы к этой статье можно найти в Интернете по адресу: https://www.frontiersin.org/articles/10.3389/fneur.2020.576194/full#supplementary-material

Список литературы

1. Ассоциация Альцгеймера. Факты и цифры о болезни Альцгеймера за 2018 год. Alzheimer’s Dem. (2018) 14: 367–429. DOI: 10.1016 / j.jalz.2018.02.001

CrossRef Полный текст | Google Scholar

2. Ню Х., Альварес-Альварес I, Гильен-Грима Ф., Агуинага-Онтосо I. Преваленсия и заболеваемость энфермедадой болезни Альцгеймера в Европе: метаанализ. Неврология. (2017) 32: 523–32. DOI: 10.1016 / j.nrl.2016.02.016

PubMed Аннотация | CrossRef Полный текст | Google Scholar

3. Gaugler JE, Ascher-Svanum H, Roth DL, Fafowora T, Siderowf A, Beach TG. Характеристики пациентов с ошибочным диагнозом болезни Альцгеймера и использования их лекарств: анализ базы данных NACC-UDS. BMC Geriatr. (2013) 13: 137. DOI: 10.1186 / 1471-2318-13-137

PubMed Аннотация | CrossRef Полный текст | Google Scholar

4. Митчелл А.Дж., Шири-Фешки М. Скорость прогрессирования легких когнитивных нарушений до деменции — метаанализ 41 надежного начального когортного исследования. Acta Psychiatrica Scandinavica. (2009) 119: 252–65. DOI: 10.1111 / j.1600-0447.2008.01326.x

PubMed Аннотация | CrossRef Полный текст | Google Scholar

5. Альберт М.С., ДеКоски С.Т., Диксон Д., Дюбуа Б., Фельдман Н.Х., Фокс Н.С. и др.Диагноз легкого когнитивного нарушения из-за болезни Альцгеймера: Рекомендации рабочих групп Национального института старения — Ассоциации Альцгеймера по диагностическим руководствам по болезни Альцгеймера. Alzheimer’s Dem. (2011) 7: 270–9. DOI: 10.1016 / j.jalz.2011.03.008

PubMed Аннотация | CrossRef Полный текст | Google Scholar

6. Сперлинг Р.А., Айзен П.С., Беккет Л.А., Беннетт Д.А., Крафт С.А., Фаган А.М. и др. К определению доклинических стадий болезни Альцгеймера: рекомендации рабочих групп национального института старения и ассоциации Альцгеймера по диагностическим руководствам по болезни Альцгеймера. Демен Альцгеймера. (2011) 7: 280–92. DOI: 10.1016 / j.jalz.2011.03.003

PubMed Аннотация | CrossRef Полный текст | Google Scholar

8. Ягуст В., Гитчо А., Сан Ф., Кучински Б., Мунгас Д., Хаан М. Доказательства доклинической болезни Альцгеймера при нормальном старении с помощью визуализации мозга. Ann Neurol. (2006) 59: 673–81. DOI: 10.1002 / ana.20799

PubMed Аннотация | CrossRef Полный текст | Google Scholar

9. Джек-младший CR, Беннетт Д.А., Бленноу К., Каррилло М.К., Данн Б., Хаберлейн С.Б. и др.Рамки исследования NIA-AA: к биологическому определению болезни Альцгеймера. Демен Альцгеймера. (2018) 14: 535–62. DOI: 10.1016 / j.jalz.2018.02.018

PubMed Аннотация | CrossRef Полный текст | Google Scholar

10. Куингнет Р., Жерардин Э., Тессиерас Дж., Аузиас Г., Лехериси С., Хаберт М.О. и Инициатива по нейровизуализации болезни Альцгеймера. Автоматическая классификация пациентов с болезнью Альцгеймера по структурной МРТ: сравнение десяти методов с использованием базы данных ADNI. Нейроизображение . (2011) 56: 766–81. DOI: 10.1016 / j.neuroimage.2010.06.013

PubMed Аннотация | CrossRef Полный текст | Google Scholar

11. Моради Э., Пепе А., Гасер С., Хуттунен Х., Тока Дж., Инициатива по нейровизуализации болезни Альцгеймера. Фреймворк машинного обучения для раннего прогнозирования конверсии болезни Альцгеймера на основе МРТ у субъектов MCI. Нейроизображение . (2015) 104: 398–412. DOI: 10.1016 / j.neuroimage.2014.10.002

PubMed Аннотация | CrossRef Полный текст | Google Scholar

12.Salvatore C, Cerasa A, Battista P, Gilardi MC, Quattrone A, Castiglioni I. Биомаркеры магнитно-резонансной томографии для ранней диагностики болезни Альцгеймера: подход машинного обучения. Front Neurosci. (2015) 9: 307. DOI: 10.3389 / fnins.2015.00307

PubMed Аннотация | CrossRef Полный текст | Google Scholar

13. Salvatore C, Battista P, Castiglioni I. Frontiers для ранней диагностики AD с помощью МРТ-изображений мозга и опорных векторных машин. Curr Alzheimer Res. (2016) 13: 509–533. DOI: 10.2174 / 1567205013666151116141705

PubMed Аннотация | CrossRef Полный текст | Google Scholar

14. Salvatore C, Castiglioni I. Обернутый мульти-маркировочный классификатор для автоматической диагностики и прогноза болезни Альцгеймера. J Neurosci Methods. (2018) 302: 58–65. DOI: 10.1016 / j.jneumeth.2017.12.016

PubMed Аннотация | CrossRef Полный текст | Google Scholar

15. Кастильони И., Сальваторе С., Рамирес Дж., Горриз Дж. М..Задача нейровизуализации машинного обучения для автоматизированной диагностики легких когнитивных нарушений: извлеченные уроки. J Neurosci Methods. (2018) 302: 10. DOI: 10.1016 / j.jneumeth.2017.12.019

PubMed Аннотация | CrossRef Полный текст | Google Scholar

16. Шариф Разавиан А., Азизпур Х., Салливан Дж., Карлссон С. Готовые возможности CNN: поразительная база для признания. В: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops .Колумбус, Огайо: IEEE (2014). п. 806–13. DOI: 10.1109 / CVPRW.2014.131

CrossRef Полный текст | Google Scholar

17. Крижевский А., Суцкевер И., Хинтон Г.Е. Классификация ImageNet с глубокими сверточными нейронными сетями. В: Достижения в системах обработки нейронной информации . Озеро Тахо, штат Невада: Фонд нейронных систем обработки информации, Inc. (2012). п. 1097–105.

PubMed Аннотация | Google Scholar

19. Ван Д., Хосла А., Гаргея Р., Иршад Х., Бек А. Х.Глубокое обучение для выявления метастатического рака груди. arXiv препринт . (2016) arXiv: 1606.05718.

PubMed Аннотация | Google Scholar

20. Сунь В., Чжэн Б., Цянь В. Компьютерная диагностика рака легких с алгоритмами глубокого обучения. В: Медицинская визуализация . Международное общество оптики и фотоники. Компьютерная диагностика (2016). п. 97850Z. DOI: 10.1117 / 12.2216307

CrossRef Полный текст | Google Scholar

22. Йосински Дж., Клюн Дж., Бенжио Й., Липсон Х.Насколько переносимы функции в глубоких нейронных сетях? В: Гахрамани З., Веллинг М., Кортес С., Лоуренс Н.Д. и Вайнбергер К.К., редакторы. Достижения в системах обработки нейронной информации. Montreal, QC: Neural Information Processing Systems Foundation, Inc. (2014). п. 3320–28.

Google Scholar

23. Litjens G, Kooi T., Bejnordi BE, Setio AAA, Ciompi F, Ghafoorian M, et al. Обзор по глубокому обучению в области анализа медицинских изображений. Med Image Anal. (2017) 42: 60–88.DOI: 10.1016 / j.media.2017.07.005

PubMed Аннотация | CrossRef Полный текст | Google Scholar

24. Фольштейн М.Ф., Фольштейн С.Е. и МакХью ПР. Мини-психическое состояние ». Практический метод оценки когнитивного состояния пациентов для клинициста. J Psychiatr Res. (1975) 12: 189–98. DOI: 10.1016 / 0022-3956 (75) -6

CrossRef Полный текст | Google Scholar

26. Векслер Д. Руководство по шкале памяти Векслера — Пересмотрено . Сан-Антонио, Техас: Психологическая корпорация (1987).

Google Scholar

27. Дюбуа Б., Фельдман Х. Х., Якова С., ДеКоски С. Т., Барбергер-Гато П., Каммингс Дж. И др. Критерии исследования для диагностики болезни Альцгеймера: пересмотр критериев NINCDS-ADRDA. Lancet Neurol. (2007) 6: 734–46. DOI: 10.1016 / S1474-4422 (07) 70178-3

PubMed Аннотация | CrossRef Полный текст | Google Scholar

28. Маккханн Г., Драхман Д., Фолштейн М., Кацман Р., Прайс Д. и Стадлан Е.М. Клинический диагноз болезни Альцгеймера: отчет рабочей группы NINCDSADRDA под эгидой целевой группы департамента здравоохранения и социальных служб по болезни Альцгеймера. Неврология (1984) 34: 939. DOI: 10.1212 / WNL.34.7.939

PubMed Аннотация | CrossRef Полный текст | Google Scholar

30. Джек-младший CR, Бернштейн М.А., Фокс NC, Томпсон П., Александр Г., Харви Д. и др. Инициатива нейровизуализации болезни Альцгеймера (ADNI): методы МРТ. J Magn Reson Imag. (2008) 27: 685–91. DOI: 10.1002 / jmri.21049

CrossRef Полный текст | Google Scholar

31. Грабнер Г., Янке А.Л., Бадж М.М., Смит Д., Прюсснер Дж., Коллинз Д.Л.Симметричный атласинг и сегментация на основе модели: приложение к гиппокампу у пожилых людей. В: Вычисление медицинских изображений и компьютерное вмешательство-MICCAI 2006 . Берлин; Гейдельберг: Springer (2006), 58–66. DOI: 10.1007 / 11866763_8

PubMed Аннотация | CrossRef Полный текст | Google Scholar

32. Дуда Р.О., Харт ЧП, Аист Д.Г. (2000) Классификация образцов (2-е изд.) . Нью-Йорк, штат Нью-Йорк: Wiley.

Google Scholar

33. Нанни Л., Сальваторе С., Сераса А., Кастильони I. Инициатива по нейровизуализации болезни Альцгеймера.Сочетание нескольких подходов для ранней диагностики болезни Альцгеймера. Pattern Recogn Lett. (2016) 84: 259–66. DOI: 10.1016 / j.patrec.2016.10.010

CrossRef Полный текст | Google Scholar

34. Нанни Л., Брахнам С., Сальваторе С., Кастильони И., Инициатива по нейровизуализации болезни Альцгеймера. Дескрипторы текстур и воксели для ранней диагностики болезни Альцгеймера. Artif Intell Med. (2019) 97: 19–26. DOI: 10.1016 / j.artmed.2019.05.003

PubMed Аннотация | CrossRef Полный текст | Google Scholar

35.Нгуен Т., Хосрави А., Крейтон Д., Нахаванди С. Новый метод отбора совокупных генов для классификации данных микрочипов. Pattern Recogn Lett. (2015) 60-61: 16–23. DOI: 10.1016 / j.patrec.2015.03.018

CrossRef Полный текст | Google Scholar

36. Cawley GC, Talbot NL, Girolami M. Разреженная полиномиальная логистическая регрессия через байесовскую регуляризацию l1. В: Platt JC, Koller D, Singer Y и Roweis ST, редактор. Достижения в области систем обработки нейронной информации .Ванкувер, Британская Колумбия: Фонд систем обработки нейронной информации, Inc. (2007). п. 209–16.

Google Scholar

38. Хан Л., Эмбрехтс М.Дж., Шимански Б., Стерникель К., Росс А. Выбор случайных признаков лесов с помощью частичных наименьших квадратов ядра: обнаружение ишемии по магнитокардиограммам . Документ, представленный на Европейском симпозиуме по искусственным нейронным сетям, Берджес, Бельгия (2006 г.).

40. Chang CC, Lin CJ. LIBSVM: библиотека для поддержки векторных машин. Trans Intell Syst Technol. (2011) 2:27. DOI: 10.1145 / 1961189.1961199

CrossRef Полный текст | Google Scholar

41. Сегеди К., Лю В., Цзя Ю., Серманет П., Рид С., Ангелов Д. и др. Углубляясь в свертки . Документ, представленный на конференции IEEE Computer Society по компьютерному зрению и распознаванию образов (2015). DOI: 10.1109 / CVPR.2015.7298594

CrossRef Полный текст | Google Scholar

42. Хе К., Чжан Х, Рен С., Сунь Дж.Глубокое остаточное обучение для распознавания изображений. В: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition . Лас-Вегас, Невада (2016). п. 770–8. DOI: 10.1109 / CVPR.2016.90

CrossRef Полный текст | Google Scholar

43. Сегеди С., Ванхаук В., Иоффе С., Шленс Дж., Война З. Переосмысление начальной архитектуры компьютерного зрения. В: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition . Лас-Вегас, Невада (2016).п. 2818–26. DOI: 10.1109 / CVPR.2016.308

CrossRef Полный текст | Google Scholar

44. Flach PA. Геометрия пространства ROC: понимание метрик машинного обучения через изометрию ROC. В: Труды 20-й Международной конференции по машинному обучению (ICML-03) . Сиань (2003). п. 194–201.

Google Scholar

45. Цуй Й, Лю Б., Луо С., Чжэнь Х, Фань М., Лю Т. и др. Идентификация перехода от легкого когнитивного нарушения к болезни Альцгеймера с использованием многомерных предикторов. PLoS ONE. (2011) 6: e21896. DOI: 10.1371 / journal.pone.0021896

PubMed Аннотация | CrossRef Полный текст | Google Scholar

46. Койккалайнен Дж., Пёленен Х., Маттила Дж., Ван Гилс М., Сойнинен Х., Лётёнен Дж. И др. Улучшенная классификация данных о болезни Альцгеймера за счет удаления мешающей изменчивости. PLoS ONE. (2012) 7: e31112. DOI: 10.1371 / journal.pone.0031112

PubMed Аннотация | CrossRef Полный текст | Google Scholar

47. Йе Дж, Фарнум М., Ян Э., Вербек Р., Лобанов В., Рагхаван Н. и др.Редкое обучение и выбор стабильности для прогнозирования преобразования MCI в AD с использованием базовых данных ADNI. BMC Neurol. (2012) 12:46. DOI: 10.1186 / 1471-2377-1246

PubMed Аннотация | CrossRef Полный текст | Google Scholar

48. Казанова Р., Сюй Ф.-К., Раковина К.М., Рапп С.Р., Уильямсон Д.Д. и др. Оценка риска болезни Альцгеймера с использованием крупномасштабных методов машинного обучения. PLoS ONE. (2013) 8: e77949. DOI: 10.1371 / journal.pone.0077949

PubMed Аннотация | CrossRef Полный текст | Google Scholar

49.Peters F, Villeneuve S, Belleville S. Прогнозирование прогрессирования деменции у пожилых людей с легкими когнитивными нарушениями с использованием как когнитивных, так и нейровизуализационных предикторов. J. Alzheimers Dis. (2014) 38: 307–18. DOI: 10.3233 / JAD-130842

PubMed Аннотация | CrossRef Полный текст | Google Scholar

50. Рунтти Х., Маттила Дж., Ван Гилс М., Койккалайнен Дж., Сойнинен Х., Лётёнен Дж., Инициатива по нейровизуализации болезни Альцгеймера. Количественная оценка прогрессирования заболевания в продольной когорте легких когнитивных нарушений. J. Alzheimer’s Dis. (2014) 39: 49–61. DOI: 10.3233 / JAD-130359

PubMed Аннотация | CrossRef Полный текст | Google Scholar

51. Дукарт Дж., Самбатаро Ф., Бертолино А. Точное прогнозирование конверсии в болезнь Альцгеймера с использованием визуализационных, генетических, нейропсихологических биомаркеров. J. Alzheimers Dis. (2015) 49: 1143–59. DOI: 10.3233 / JAD-150570

PubMed Аннотация | CrossRef Полный текст | Google Scholar

52. Эскилдсен С.Ф., Купе П., Фонов В.С., Прюсснер Дж. К., Коллинз Д.Л.Структурные визуализирующие биомаркеры болезни Альцгеймера: прогнозирование прогрессирования заболевания. Neurobiol. Старение. (2015) 36: S23–31. DOI: 10.1016 / j.neurobiolaging.2014.04.034

PubMed Аннотация | CrossRef Полный текст | Google Scholar

53. Риттер К., Шумахер Дж., Вейгандт М., Бухерт Р., Аллефельд С., Хейнс Дж .-Д. и др. Мультимодальное прогнозирование конверсии в болезнь Альцгеймера на основе неполных биомаркеров. Демент Альцгеймера. (2015) 1: 206–15. DOI: 10.1016 / j.dadm.2015.01.006

PubMed Аннотация | CrossRef Полный текст | Google Scholar

54. Фарук Ю., Рэди С., Фахим Х. Статистические характеристики и морфометрия на основе вокселей для классификации болезни Альцгеймера. В: 2018 9-я Международная конференция по информационным и коммуникационным системам (ICICS) . IEEE (2018). п. 133–8. DOI: 10.1109 / IACS.2018.8355455

CrossRef Полный текст | Google Scholar

55. Zhang Y, Liu S. Анализ структурной МРТ головного мозга и многопараметрическая классификация болезни Альцгеймера. Biomedical Eng / Biomed Technik. (2018) 63: 427–437. DOI: 10.1515 / bmt-2016-0239

PubMed Аннотация | CrossRef Полный текст | Google Scholar

56. Acharya UR, Fernandes SL, WeiKoh JE, Ciaccio EJ, Fabell MKM, Tanik UJ, et al. Автоматическое обнаружение болезни Альцгеймера с помощью изображений МРТ головного мозга — исследование с использованием различных методов извлечения признаков. J Med Syst. (2019) 43: 302. DOI: 10.1007 / s10916-019-1428-9

PubMed Аннотация | CrossRef Полный текст | Google Scholar

57.Крутика К.Р., Махешаппа HD, Инициатива по нейровизуализации болезни Альцгеймера. Подход на основе многоступенчатого классификатора для прогнозирования и поиска болезни Альцгеймера. Inform Med разблокирован. (2019) 14: 34–42. DOI: 10.1016 / j.imu.2018.12.003

CrossRef Полный текст | Google Scholar

58. Salvatore C, Cerasa A, Castiglioni I. (2018) МРТ характеризует прогрессирующее течение AD и прогнозирует переход в деменцию Альцгеймера за 24 месяца до вероятного диагноза. Фронт Старения Neurosci .10: 135. DOI: 10.3389 / fnagi.2018.00135

PubMed Аннотация | CrossRef Полный текст | Google Scholar

59. Aderghal K, Benois-Pineau J, Afdel K, Catheline G. FuseMe: классификация изображений sMRI путем слияния глубоких CNN в проекциях 2D +. В: Proceedings of the 15th International Workshop on Content-Based Multimedia Indexing . Нью-Йорк, штат Нью-Йорк (2017). DOI: 10.1145 / 3095713.3095749

CrossRef Полный текст | Google Scholar

60. Cheng D, Liu M, Fu J, Wang Y.Классификация МРТ изображений головного мозга по комбинации нескольких CNN для диагностики БА. В: Девятая международная конференция по цифровой обработке изображений (ICDIP 2017) Гонконг: SPIE (2017). п. 5. DOI: 10.1117 / 12.2281808

CrossRef Полный текст | Google Scholar

61. Королев С., Сафиуллин А., Беляев М., Додонова Ю. Остаточные и простые сверточные нейронные сети для трехмерной МРТ-классификации мозга. В: , 2017 14-й Международный симпозиум IEEE по биомедицинской визуализации (ISBI 2017) .Мельбурн, Виктория (2017). п. 835–8. DOI: 10.1109 / ISBI.2017.7950647

CrossRef Полный текст | Google Scholar

62. Ортис А., Мунилла Дж., Гуррис Дж. М., Рамирес Дж. Ансамбли архитектур глубокого обучения для ранней диагностики болезни Альцгеймера. Int J Neural Syst. (2016) 26: 1650025. DOI: 10.1142 / S01216500258

PubMed Аннотация | CrossRef Полный текст | Google Scholar

63. Сук Х.И., Ли С.В., Шен Д., Инициатива по нейровизуализации болезни Альцгеймера.Иерархическое представление функций и мультимодальное слияние с глубоким обучением для диагностики AD / MCI. Нейроизображение . (2014) 101: 569–82. DOI: 10.1016 / j.neuroimage.2014.06.077

PubMed Аннотация | CrossRef Полный текст | Google Scholar

64. Лю М., Ченг Д., Ван К., Ван Й., Инициатива по нейровизуализации болезни Альцгеймера. Мультимодальные каскадные сверточные нейронные сети для диагностики болезни Альцгеймера. Нейроинформатика . (2018) 16: 295–308. DOI: 10.1007 / s12021-018-9370-4

PubMed Аннотация | CrossRef Полный текст | Google Scholar

65.Цуй Р., Лю М., Инициатива по нейровизуализации болезни Альцгеймера. RNN и продольный анализ на его основе для диагностики болезни Альцгеймера. Граф визуализации Comput Med . (2019) 73: 1–10. DOI: 10.1016 / j.compmedimag.2019.01.005

PubMed Аннотация | CrossRef Полный текст | Google Scholar

66. Feng C, Elazab A, Yang P, Wang T, Zhou F, Hu H и др. Структура глубокого обучения для диагностики болезни Альцгеймера с помощью 3D-CNN и FSBi-LSTM. Доступ IEEE. (2019) 7: 63605–18.DOI: 10.1109 / ACCESS.2019.27

CrossRef Полный текст | Google Scholar

67. Лю М., Чжан Дж, Ни Д., Яп П. Т., Шен Д. Представление глубоких особенностей на основе анатомических ориентиров для МР-изображений при диагностике заболеваний головного мозга. IEEE J Biomed Health Inform. (2018) 22: 1476–85. DOI: 10.1109 / JBHI.2018.27

PubMed Аннотация | CrossRef Полный текст | Google Scholar

68. Лю М., Чжан Дж., Адели Э., Шен Д. Совместная классификация и регрессия с помощью глубокого многозадачного многоканального обучения для диагностики болезни Альцгеймера. IEEE Trans Biomed Eng. (2018) 66: 1195–206. DOI: 10.1109 / TBME.2018.2869989

PubMed Аннотация | CrossRef Полный текст | Google Scholar

69. Лю М., Ли Ф, Ян Х, Ван К., Ма И, Шен Л. и др. Мультимодельная глубокая сверточная нейронная сеть для автоматической сегментации и классификации гиппокампа при болезни Альцгеймера. Нейроизображение . (2020) 208: 116459. DOI: 10.1016 / j.neuroimage.2019.116459

PubMed Аннотация | CrossRef Полный текст | Google Scholar

70.Джуба Б, Le HS. Точность отзыва против точности и роль больших наборов данных. Assoc Adv Arti Intellig. (2018) 33: 4039–48. DOI: 10.1609 / aaai.v33i01.33014039

CrossRef Полный текст | Google Scholar

72. Haenssle HA, Fink C, Schneiderbauer R, Toberer F, Buhl T, Blum A, et al. Человек против машины: диагностические возможности сверточной нейронной сети с глубоким обучением для распознавания дерматологической меланомы по сравнению с 58 дерматологами. Ann Oncol. (2018) 29: 1836–42. DOI: 10.1093 / annonc / mdy166

PubMed Аннотация | CrossRef Полный текст | Google Scholar

.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *