101) процес, в якому отримуваний образ/сигнал повинен бути віднесений до одного із зумовлених класів a) +Розпізнавання образів b) Розкладання сигналу c) Кодування d) Дезинформація
102) Система, використовувана для вимірювання фізичних величин, називається a) +Датчиком b) Палінгатором c) Вимірником d) Немає правильної відповіді
103) витягання корисної інформації в дискретні моменти часу n з даних, зміряних аж до моменту часу n включно. a) +Фільтрація b) Згладжування c) Прогнозuрованіє d) Немає правильної відповіді
104) інформація про корисний сиrнале у момент часу n не потрібна, тому для витягання цієї інформації можна використовувати дані, отримані пізніше. a) Фільтрація b) +Згладжування c) Прогнозuрованіє d) Немає правильної відповіді
105)Целью этоro процесу є отримання прогнозу щодо полягання об'єкту управління в деяким момент часу, на основі даних, отриманих до моменту n a) Фільтрація b) Згладжування c) +Прогнозuрованіє d) Немає правильної відповіді
106) Вхідний звуковий сиrнал сегментується на окремі канали, несущне значнмую для слухача ннформацию про навколишнє середовище. a) +Сегментація. b) Bнимaниe. c) Перемикання. d) Немає правильної відповіді
107) здатність слухача фокусувати увагу на одному з каналів при одночасному блокуванні вннмання до друrим каналів a) Сегментація. b) +Bнимaниe. c) Перемикання. d) Немає правильної відповіді
108) Здатність перемикати увагу з одноro каналу на іншій, що зазвичай забезпечується за рахунок открытия–закрытия шлюзів каналів вхідного звукового сигналу за принципом зверху "вниз" a) Сегментація. b) Bнимaниe. c) +Перемикання. d) Немає правильної відповіді
109) знімає сигнали в дискретних точках простору. a) +Масив антенних елементів b) Лінійний суматор c) Масив лінійних суматорів d) Немає правильної відповіді
110) визначуваний безліччю фіксованих вагів на виході котoporo формується бажаний відгук. a) Масив антенних елементів b) +Лінійний суматор c) Масив лінійних суматорів d) Немає правильної відповіді
111) Нейронна мережа з параметрами, що настроюються, призначена для адаптації до статистичних варіацій сторонніх сигналів. a) +так b) немає
112) відображенням текущеro стану навколишнього середовища. a) +Короткочасна пам'ять b) довготривалій пам'яті c) мнемопамять d) Немає правильної відповіді
113) зберігаються знання, призначені для продолжительноro використання. a) Короткочасна пам'ять b) +довготривалій пам'яті c) мнемопамять d) Немає правильної відповіді
114) Вперше ідею нелинейноro адаптивноro фільтру висунув Габор в a) +1954 року b) 1955 року c) 1956 року d) 1957 року
115) Для приминения динамічного підходу потрібно виконати наступну послідовність дій. 1. Вибрати достатньо короткий інтервал часу, на якому дані можна вважати псевдостаціонарними, і використовувати для навчання мережі. 2. Після отримання нового обучающеrо прикладу потрібно відкинути найстаріший вектор і додати у вибірку новий приклад. 3. Використовувати оновлену вибірку для навчання мережі. 4. Безперервно повторювати описану процедуру.
116) Сучасний інструмент пошуку закономірностей, прогнозування, якісного аналізу a) +Мережа зворотного розповсюдження b) Мережа прямого розповсюдження c) Мережа різностороннього розповсюдження d) Немає правильної відповіді
117) Володіє молекулярними засобами для виробництва необхідних нейрону матеріалів a) +Плазма b) Газ c) Спирт d) Немає правильної відповіді
118)Кто розробив принципи організації і функціонування персептронів, запропонував варіант технічної реалізації першого в світі нейрокомпьютера Mark? a) +Розенблатт b) Хебб c) Баєс d) Хемінг
119) Одношарова нейронна мережа, при цьому кожен персептронный нейрон як активаційна функція використовує функцію одиничного стрибка a) +Персептрон b) Неон c) Нейтрон d) Немає правильної відповіді
120) Відростки нервових волокон двох типів - a) +Дендріти b) Сталоктіти c) Сталагміти d) Немає правильної відповіді
121) Особлива біологічна клітка, яка обробляє інформацію a) +Нейрон b) Персептрон c) Нейтрон d) Немає правильної відповіді
122) Вказівка приналежності вхідного образу, представленого вектором ознак, одному або декільком заздалегідь певним класам a) +Класифікація образів b) Реєстрація образів c) Кластеризація образів d) Немає правильної відповіді
123) Алгоритм ... заснований на подібності образів і розміщує близькі образи в один кластер. a) +кластеризації b) класификации c) реєстрації d) Немає правильної відповіді
124) Яка мережа включає дві парадигми, кожна з яких визначається формою вхідних даних і способом їх обробки? a) +Мережа АРТ b) Мережа АТР c) Мережа РОТА d) Мережа ТАР
125)Из чого полягає нейрон? a) Голова b) +Сома c) Ноги d) +Тіло
126) Хто висловив ідеї про характер з'єднань нейронів мозку і їх взаємодію і описав правила навчання нейронної мережі? a) +Хебб b) Баєс c) Хемінг d) Розенблатт
127)Многочисленные проблеми в математиці, статистиці, техніці, науці, медицині і економіці можуть розглядатися як проблеми ... a) +Оптимізації b) Класифікація c) Реєстрація d) Кластеризація
128) Які мережі виконують псевдовипадкові зміни величин вагів, зберігаючи ті зміни, які ведуть до поліпшень? a) +Стохастичні мережі b) Мережа зворотного розповсюдження c) Мережа прямого розповсюдження d) Мережа різностороннього розповсюдження
129) У якому віку сформувався термін «нейронні мережі»? a) +XX b) XІX c) XXІ d) Немає правильної відповіді
130) Що впливає на величину імпульсів? a) +Синапс b) Нейрон c) Протон d) Персептрон
131) Нейрон може передавати імпульс з допомогою ... a) +Аксона b) Протона c) Персептрона d) Синапсу
132) Тіло нейрона включає - a) +Ядро b) Голову c) Ноги d) Синопс
133) Підходом для створення нейросетей не є: a) +апаратні; b) програмні; c) +неадекватні. d) Немає правильної відповіді
134) Основна ідея принципу мінімізації емпіричної риски полягає у використанні функціонала эмпирическоro риски. a) +так b) немає
135) Функціонал риски – це. a) +вірогідність помилки класифікації b) помилка навчання c) вірогідність помилки розпізнавання d) немає правильної відповіді
136) Функціонал эмпирическоro риски – це a) вірогідність помилки класифікації b) +помилка навчання c) вірогідність помилки розпізнавання d) немає правильної відповіді
137) частота зроблених машиною помилок протягом сеансу навчання для определенноro вектора вагів a) +помилкою навчання b) помилкою узагальнення c) помилкою освіти d) немає правильної відповіді
138) частота зроблених машиною помилок при її тестуванні на прикладах, що не зустрічалися раніше. a) помилкою навчання b) +помилкою узагальнення c) помилкою освіти d) немає правильної відповіді
139)Множество з елементів Х називається. a) +поняттям b) класом понять c) Терміном d) немає правильної відповіді
140)любой набір підмножин середовища Х a) поняттям b) + класом понять c) Терміном d) немає правильної відповіді
141)Понятие, для якого наводяться приклади, називається цільовим a) +так b) немає
142) Цей параметр задає величину помилки, при якій апроксимація целевоro поняття на гіпотезу зважає задовільною. a) Параметр довіри b) +Параметр помилки c) Параметр відповіді d) немає правильної відповіді
143) Цей параметр задає ступінь правдоподібності при побудові "хорошої" апроксимації. a) +Параметр довіри b) Параметр помилки c) Параметр відповіді d) немає правильної відповіді
144) У якому році було піднято питання про те, що в завданнях класифікації образів за допомогою великих нейронних мереж часто виявляється, що для успешноro навчання мережа здатна обійтися roраздо меншою кількістю прикладів, чим кількість синаптических вагів в ній. a) 1996 b) +1997 c) 1998 d) 1999
145) У якому році Маккаллок і Пітц року вперше представили ідею використання нейронних мереж як обчислювальні машини a) +1943 b) 1949 c) 1945 d) 1958
146) У якому році Хебб ввів перше правило самоорrанизующеroся навчання a) 1943 b) +1949 c) 1945 d) 1958
147) У якому році Розенблатт ввів поняття персептрова як першій моделі навчання з вчителем a) 1943 b) 1949 c) 1945 d) +1958
148) У початковій версії персептрона, соrласно Розенблатгy містилися три типи злементов: a) +сенсориые b) +асоціативні c) +реактивні d) повчальні
149) Функціональний блок, що є основним для наочної області обробки сигналів a) +адаптивний фільтр b) звуковий фільтр c) приобразованый фільтр d) немає правильної відповіді
150) Якщо m елементів сиrнала х(i) зароджуються в різних точках простору, то вхідний сигнал можна вважати моментальним знімком даних a) +так b) немає
151) Основна ідея методу Ньютона полягає в мінімізації квадратичної апроксимації функції вартості E(w) в точці w(n). a) + так b) немає
152)Для эргодического процесу лінійний фільтр, побудований по методу найменших квадратів, асимптотика сходиться до фільтру Вінера у міру наближення кількості спостережень до нескінченності. a) +так b) немає
153) Вектори вхідних сиrналов х(1), х(2) . . . є статистично независимымидруr від друrа. a) +так b) немає
154) У момент часу п вектор входноrо сиrнала х(n) є статистично незалежним від всіх попередніх бажаних відгуків, Тобто d(1), d(2) . .., d(n - 1). a) +так b) немає
155) У момент часу n бажаний відгук d( n) залежить від вектора х( n), але статисти чесання не залежить від всіх попередніх значень желаемоro відгуку. a) +так b) немає
156) Вектор входноrо сиrнала х (n) і бажаний відгук d( n) вибираються з множини, подчиняющеrося розподілу гауса. a) + так b) немає
157)Если ви не знаєте, з чим зіткнулися, припустите найгірше і . a) + оптимізуйте рішення. b) Сподівайтеся на краще c) Запитаєте у кого нибудь d) Немає правильної відповіді
158) корисною характеристикою адаптивноrо фільтру, що отримується з усередненої кривої навчання, є a) +Розузгодження b) Узгодження c) Неузгодження d) Немає правильної відповіді
159) однією важливою характеристикою алroритма мінімізації среднеквадратической помилки є a) +час установки b) час видалення c) час усунення d) немає правильної відповіді
160) Зокрема, для настройки вагових коефіцієнтів можна використовувати алгоритм, що заснований на корекції помилок і отримав назву a) +Алгоритму збіжності персептрона b) Алгоритму расходимости персептрона c) Алгоритму перетину персептрона d) немає правильної відповіді
161) Сигмоїдальниє функції отримали своє назваиие завдяки формі coeгo графіка у вигляді букви . a) +S b) C c) U d) T
162) Довільні асимптотика оrpаниченные і cтporo монотонні функції однієї змінної. a) + Прості сигмоиды. b) Гіперболічні сигмоиды. c) Складні сигмоиды d) немає правильної відповіді
163) Повне подмиожество простих сигмоид, що є узагальненням функції гіперболічного тангенса. a) Прості сигмоиды. b) + Гіперболічні сигмоиды. c) Складні сигмоиды d) немає правильної відповіді
164) вхідний сигнал (стимул), що поступає в мережу і передаваний вперед від нейрона до нейрона по всій мережі. a) +Функціональний сигнал b) Сигнал помилки c) Сигнал виходу d) немає правильної відповіді
165) Сиrнал бере свій початок на виході мережі і розповсюджується у зворотному напрямі a) Функціональний сигнал b) + Сигнал помилки c) Сигнал виходу d) немає правильної відповіді
166) Обчислення функціонального сигналу на виході нейрона, що реалізовується у вигляді безперервної нелінійної функції від входноrо сигналу і синаптических вагів, пов'язаних з даним нейроном. a) +так b) немає
167) Обчислення оцінки вектора градієнта необхідного для зворотного проходу через мережу. a) +так b) немає
168) При прямому проході синаптические ваги залишаються незмінними у всій мережі, а функціональні сигнали обчислюються послідовно, від нейрона до нейрона. a) + так b) немає
169) У цьому режимі коректування вагів проводиться після подачі каждоrо прикладу. a) +Послідовний режим b) Пакетний режим c) Стартовий режим d) немає правильної відповіді
170) навчання по методу обратноro розповсюдження коректування вагів про водиться після подачі в мережу прикладів навчання a) Послідовний режим b) +Пакетний режим c) Стартовий режим d) немає правильної відповіді
171) Вважається, що алгоритм зворотного розповсюдження зійшовся, якщо евклидова норма вектора градієнта досягає достатньо малих значень. a) +так b) немає
172) Критерієм збіжності алгоритму зворотного розповсюдження є достатньо мала абсолютна інтенсивність змін среднеквадратической помилки протягом епохи. a) + так b) немає
173) Припускаючи відсутність апріорної інформації, генеруємо синаптические ваги і порогові значення за допомогою датчика рівномірно розподілених чисел з середнім значенням 0. a) +Ініціалізація b) Пред'явлення прикладів навчання c) Інсталяция d) Ітерація
174) У мережу подаються образи з обучающеro множини (епохи). Для каждоro образу послідовно виконуються прямий і зворотний проходи a) Ініціалізація b) +Пред'явлення прикладів навчання c) Інсталяция d) Ітерація
175) Послідовно виконуємо прямий і зворотний проходи, пред'являючи мережі все при заходи навчання з епохи, поки не буде достиrнут критерій останову. a) Ініціалізація b) Пред'явлення прикладів навчання c) Інсталяция d) +Ітерація
176) Як правило, кожен повчальний приклад, що надається алгоритму зворотного распростра нения, потрібно вибирати з міркувань найбільшою інформаційною насыщеннасти в області вирішуваного завдання a) +Максимізація інформативності b) Функція активації c) Нормалізація входів d) немає правильної відповіді
177) Багатошаровий персептрон, що навчається по алгоритму зворотного розповсюдження a) Максимізація інформативності b) +Функція активації c) Нормалізація входів d) немає правильної відповіді
178) Всі вхідні змінні должныбыть заздалегідь оброблені так, щоб середнє значення по всій повчальній множині було близьке до нуля, інакше їх буде складно сравниватьсо стандартним a) Максимізація інформативності b) Функція активації c) +Нормалізація входів d) немає правильної відповіді
179) Вектор спостереження Х відноситься до класу C1, якщо відношення правдоподібності Л(х) більше порогового значення про і до класу С2 в решті випадків. a) +так b) немає
180) описує лінійне перетворення багатовимірного завдання в одновимірну. a) + лінійний дискримінант Фішера b) нелінійний дискримінант Фішера c) перетворення Фішера d) немає правильної відповіді
181) Обчислення Гессиана складає основу процедури повторноro навчання мноroслойноrо персептрона послевнесения невеликих змін в безліч прикладів навчання. a) +так b) немає
182) Матрицю, зворотну Гессиану, можна використовувати для визначення меж помилок при нелінійному прогнозуванні, що виконується за допомогою навченої нейронної мережі. a) + так b) немає
183) Власні значення матриці Гессе можна використовувати для знаходження значень параметрів регуляризации. a) +так b) немає
184) У якому році незалежно друr від друrа були опубліковані дві роботи по використанню персептронів як універсальні апроксимації a) 1988 b) +1989 c) 1990 d) 1991
185) Відповідно до теореми про універсальну апроксимацію для задоволення цієї вимоги розмір прихованого шару m1 повинен бути великим. a) +Точність якнайкращої апроксимації b) Точність емпіричної відповідності апроксимації c) Точність розрахунків d) Немає правильної відповіді
186) Для того, щоб задовольнити цій вимозі, відношення m1/N повинне мати мале значення. Для фиксированноrо об'єму N повчальної множини розмір cкpатнoгo шаруючи m1 повинен залишатися малим, що противоречит першій вимозі. a) Точність якнайкращої апроксимації b) +Точність емпіричної відповідності апроксимації c) Точність розрахунків d) Немає правильної відповіді
187) Функція, визначена в просторі великої розмірності, швидше за все, є значно складнішою, ніж функція, визначена в просторі меншої розмірності, і цю складність важко розгледіти. a) +так b) немає
188+) Підмножина використовувана для вибору моделі. a) Підмножина для оцінювання b) Перевірочна підмножина c) Підмножина результатів d) Немає правильної відповіді
189) Підмножина використовувана для тестування моделі. a) Підмножина для оцінювання b) +Перевірочна підмножина c) Підмножина результатів d) Немає правильної відповіді
190) ідея перехресних перевірок у вигляді технолоrии вона оформилася в . a) 1950 – 1960 x роках. b) +1960 – 1970 x роках c) 1970 – 1980 x роках d) Немає правильної відповіді
191) Режим при якому N < 30W, де N – розмір обучающеrо множини; W – кількість вільних параметрів мережі. a) +неассимптотический режим b) асимптотичний режим c) Режим відладки d) Немає правильногоответа
192)В цьому режимі при використанні методу раннього останову спостерігається лише невелике поліпшення ефективності узагальнення в порівнянні з повним навчанням. a) неассимптотический режим b) + асимптотичний режим c) Режим відладки d) Немає правильногоответа
193) Мінімізувати розмір мережі можна способами. a) +Нарощування мережі b) + Спрощення структури мережі c) Видалення мережі d) Немає правильних відповідей
194) Передбачається, що параметри віддаляються з мережі тільки після збіжності процесу навчання a) +Зовнішня апроксимація b) Квадратична апроксимація c) Кубічная апроксимація d) Немає правильних відповідей
195) Передбачається, що поверхня помилок в околиці глобальноrо або локальноrо мінімуму є приблизно "квадратичною". a) Зовнішня апроксимація b) +Квадратична апроксимація c) Кубічная апроксимація d) Немає правильних відповідей
196) Обчислювальна складність алrоритма зазвичай вимірюється в термінах кількості операцій a) +складання b) +множення c) +зберігання d) ділення
197) У якому році було розглянуто завдання навчання для мноroслойных мереж прямоro распростраиения з лінійними функціями активації на основі методу обратноro розповсюдження. a) +1989 року b) 1988 року c) 1987 року d) 1986 року
198) У якому році був розглянутий більш загальний випадок навчання методом обратноro розповсюдження для мережі, що містить нелінійні нейрони. a) +1992 року b) 1993 року c) 1994 року d) 1995 року
199) При послідовних ітераціях метод зв'язаних напрямів мінімізує квадратичну функцію f(x) в лінійному просторі векторів, що поступово розширюється, містить точку глобального мінімуму цієї функції. a) + так b) немає
200) У кокой фазі знаходиться група, що є нетривіальним інтервалом, що гарантовано містить мінімум. a) +Фаза угрупування b) Фаза розділення c) Фаза складання d) Фаза ділення