В школуПятница, 27.06.2025, 21:35

Приветствую Вас Гость | RSS
Главная | Каталог статей | Регистрация | Вход
Меню сайта

Категории раздела
Анализы уроков [10]
Анализы проыеденных уроков для разных предметов
Конспекты [41]
Планы конспекты и просто конспекты уроков разных тематик
Документация [12]
Примеры заполнений разного рода документов
Мероприятия [13]
Тексты, планы и сценарии мероприятий
Контроль знаний [117]
Контрольные и самостоятельные работы, вопроссы, тесты, лабораторные работы и т.д
Литература [84]
Статьи и другая образовательная литература
Рефераты и Доклады [25]
Рефераты, доклады, дипломные проекты и т.д
Разное [10]
Статьи с других сайтов предоставленніе нам.

Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0

Главная » Статьи » Контроль знаний

Тести. Нейронні мережі. Модуль 2 Часть 2
Тести. Нейронні мережі. Модуль 2 Часть 2

30) Якщо m елементів сиrнала х(i) зароджуються в різних точках простору, то вхідний сигнал можна вважати моментальним знімком даних
a) +так
b) немає

31) Основна ідея методу Ньютона полягає в мінімізації квадратичної апроксимації функції вартості E(w) в точці w(n).
a) +так
b) немає

32)Для эргодического процесу лінійний фільтр, побудований по методу найменших квадратів, асимптотика сходиться до фільтру Вінера у міру наближення кількості спостережень до нескінченності.
a) +так
b) немає

33) Вектори вхідних сиrналов х(1), х(2) . . . є статистично независимымидруr від друrа.
a) +так
b) немає

34) У момент часу п вектор входноrо сиrнала х(n) є статистично незалежним від всіх попередніх бажаних відгуків, Тобто d(1), d(2) . .., d(n - 1).
a) +так
b) немає

35) У момент часу n бажаний відгук d( n) залежить від вектора х( n), але статисти чесання не залежить від всіх попередніх значень желаемоro відгуку.
a) +так
b) немає

36) Вектор входноrо сиrнала х (n) і бажаний відгук d( n) вибираються з множини, подчиняющеrося розподілу гауса.
a) +так
b) немає

37)Если ви не знаєте, з чим зіткнулися, припустите найгірше і .
a) +оптимізуйте рішення.
b) Сподівайтеся на краще
c) Запитаєте у кого нибудь
d) Немає правильної відповіді

38) корисною характеристикою адаптивноrо фільтру, що отримується з усередненої кривої навчання, є
a) +Розузгодження
b) Узгодження
c) Неузгодження
d) Немає правильної відповіді

39) однією важливою характеристикою алroритма мінімізації среднеквадратической помилки є
a) +час установки
b) час видалення
c) час усунення
d) немає правильної відповіді

40) Зокрема, для настройки вагових коефіцієнтів можна використовувати алгоритм, що заснований на корекції помилок і отримав назву
a) +Алгоритму збіжності персептрона
b) Алгоритму расходимости персептрона
c) Алгоритму перетину персептрона
d) немає правильної відповіді

41) Сигмоїдальниє функції отримали своє назваиие завдяки формі coeгo графіка у вигляді букви .
a) +S
b) C
c) U
d) T

42) Довільні асимптотика оrpаниченные і cтporo монотонні функції однієї змінної.
a) +Прості сигмоиды.
b) Гіперболічні сигмоиды.
c) Складні сигмоиды
d) немає правильної відповіді

43) Повне подмиожество простих сигмоид, що є узагальненням функції гіперболічного тангенса.
a) Прості сигмоиды.
b) +Гіперболічні сигмоиды.
c) Складні сигмоиды
d) немає правильної відповіді

44) вхідний сигнал (стимул), що поступає в мережу і передаваний вперед від нейрона до нейрона по всій мережі.
a) +Функціональний сигнал
b) Сигнал помилки
c) Сигнал виходу
d) немає правильної відповіді

45) Сиrнал бере свій початок на виході мережі і розповсюджується у зворотному напрямі
a) Функціональний сигнал
b) +Сигнал помилки
c) Сигнал виходу
d) немає правильної відповіді

46) Обчислення функціонального сигналу на виході нейрона, що реалізовується у вигляді безперервної нелінійної функції від входноrо сигналу і синаптических вагів, пов'язаних з даним нейроном.
a) +так
b) немає

47) Обчислення оцінки вектора градієнта необхідного для зворотного проходу через мережу.
a) +так
b) немає

48) При прямому проході синаптические ваги залишаються незмінними у всій мережі, а функціональні сигнали обчислюються послідовно, від нейрона до нейрона.
a) +так
b) немає

49) У цьому режимі коректування вагів проводиться після подачі каждоrо прикладу.
a) +Послідовний режим
b) Пакетний режим
c) Стартовий режим
d) немає правильної відповіді

50) навчання по методу обратноro розповсюдження коректування вагів про водиться після подачі в мережу прикладів навчання
a) Послідовний режим
b) +Пакетний режим
c) Стартовий режим
d) немає правильної відповіді

51) Вважається, що алгоритм зворотного розповсюдження зійшовся, якщо евклидова норма вектора градієнта досягає достатньо малих значень.
a) +так
b) немає

52) Критерієм збіжності алгоритму зворотного розповсюдження є достатньо мала абсолютна інтенсивність змін среднеквадратической помилки протягом епохи.
a) +так
b) немає

53) Припускаючи відсутність апріорної інформації, генеруємо синаптические ваги і порогові значення за допомогою датчика рівномірно розподілених чисел з середнім значенням 0.
a) +Ініціалізація
b) Пред'явлення прикладів навчання
c) Інсталяция
d) Ітерація

54) У мережу подаються образи з обучающеro множини (епохи). Для каждоro образу послідовно
виконуються прямий і зворотний проходи
a) Ініціалізація
b) +Пред'явлення прикладів навчання
c) Інсталяция
d) Ітерація

55) Послідовно виконуємо прямий і зворотний проходи, пред'являючи мережі все при заходи навчання з епохи, поки не буде достиrнут критерій останову.
a) Ініціалізація
b) Пред'явлення прикладів навчання
c) Інсталяция
d) +Ітерація

56) Як правило, кожен повчальний приклад, що надається алгоритму зворотного распростра
нения, потрібно вибирати з міркувань найбільшою інформаційною насыщеннасти в області вирішуваного завдання
a) +Максимізація інформативності
b) Функція активації
c) Нормалізація входів
d) немає правильної відповіді

57) Багатошаровий персептрон, що навчається по алгоритму зворотного розповсюдження
a) Максимізація інформативності
b) +Функція активації
c) Нормалізація входів
d) немає правильної відповіді

58) Всі вхідні змінні должныбыть заздалегідь оброблені так, щоб середнє значення по всій повчальній множині було близьке до нуля, інакше їх буде складно сравниватьсо стандартним
a) Максимізація інформативності
b) Функція активації
c) +Нормалізація входів
d) немає правильної відповіді

59) Вектор спостереження Х відноситься до класу C1, якщо відношення правдоподібності Л(х) більше порогового значення про і до класу С2 в решті випадків.
a) +так
b) немає

60) описує лінійне перетворення багатовимірного завдання в одновимірну.
a) +лінійний дискримінант Фішера
b) нелінійний дискримінант Фішера
c) перетворення Фішера
d) немає правильної відповіді

61) Обчислення Гессиана складає основу процедури повторноro навчання мноroслойноrо персептрона послевнесения невеликих змін в безліч прикладів навчання.
a) +так
b) немає

62) Матрицю, зворотну Гессиану, можна використовувати для визначення меж помилок при нелінійному прогнозуванні, що виконується за допомогою навченої нейронної мережі.
a) +так
b) немає

63) Власні значення матриці Гессе можна використовувати для знаходження значень параметрів регуляризации.
a) +так
b) немає

64) У якому році незалежно друr від друrа були опубліковані дві роботи по використанню персептронів як універсальні апроксимації
a) 1988
b) +1989
c) 1990
d) 1991

65) Відповідно до теореми про універсальну апроксимацію для задоволення цієї вимоги розмір прихованого шару m1 повинен бути великим.
a) +Точність якнайкращої апроксимації
b) Точність емпіричної відповідності апроксимації
c) Точність розрахунків
d) Немає правильної відповіді

66) Для того, щоб задовольнити цій вимозі, відношення m1/N повинне мати мале значення. Для фиксированноrо об'єму N повчальної множини розмір cкpатнoгo шаруючи m1 повинен залишатися малим, що противоречит першій вимозі.
a) Точність якнайкращої апроксимації
b) +Точність емпіричної відповідності апроксимації
c) Точність розрахунків
d) Немає правильної відповіді

67) Функція, визначена в просторі великої розмірності, швидше за все, є значно складнішою, ніж функція, визначена в просторі меншої розмірності, і цю складність важко розгледіти.
a) +так
b) немає

68) Підмножина використовувана для вибору моделі.
a) + Підмножина для оцінювання
b) Перевірочна підмножина
c) Підмножина результатів
d) Немає правильної відповіді

69) Підмножина використовувана для тестування моделі.
a) Підмножина для оцінювання
b) +Перевірочна підмножина
c) Підмножина результатів
d) Немає правильної відповіді

70) ідея перехресних перевірок у вигляді технолоrии вона оформилася в .
a) 1950 – 1960 x роках.
b) +1960 – 1970 x роках
c) 1970 – 1980 x роках
d) Немає правильної відповіді

71) Режим при якому N < 30W, де N – розмір обучающеrо множини; W – кількість вільних
параметрів мережі.
a) +неассимптотический режим
b) асимптотичний режим
c) Режим відладки
d) Немає правильногоответа

72)В цьому режимі при використанні методу раннього останову спостерігається лише невелике поліпшення ефективності узагальнення в порівнянні з повним навчанням.
a) неассимптотический режим
b) +асимптотичний режим
c) Режим відладки
d) Немає правильногоответа

73) Мінімізувати розмір мережі можна способами.
a) +Нарощування мережі
b) +Спрощення структури мережі
c) Видалення мережі
d) Немає правильних відповідей

74) Передбачається, що параметри віддаляються з мережі тільки після збіжності процесу навчання
a) +Зовнішня апроксимація
b) Квадратична апроксимація
c) Кубічная апроксимація
d) Немає правильних відповідей

75) Передбачається, що поверхня помилок в околиці глобальноrо або локальноrо мінімуму є приблизно "квадратичною".
a) Зовнішня апроксимація
b) +Квадратична апроксимація
c) Кубічная апроксимація
d) Немає правильних відповідей

76) Обчислювальна складність алrоритма зазвичай вимірюється в термінах кількості операцій
a) +складання
b) + множення
c) +зберігання
d) ділення

77) У якому році було розглянуто завдання навчання для мноroслойных мереж прямоro распростраиения з лінійними функціями активації на основі методу обратноro розповсюдження.
a) +1989 року
b) 1988 року
c) 1987 року
d) 1986 року

78) У якому році був розглянутий більш загальний випадок навчання методом обратноro розповсюдження для мережі, що містить нелінійні нейрони.
a) +1992 року
b) 1993 року
c) 1994 року
d) 1995 року

79) При послідовних ітераціях метод зв'язаних напрямів мінімізує квадратичну функцію f(x) в лінійному просторі векторів, що поступово розширюється, містить точку глобального мінімуму цієї функції.
a) +так
b) немає

80) У кокой фазі знаходиться група, що є нетривіальним інтервалом, що гарантовано містить мінімум.
a) +Фаза угрупування
b) Фаза розділення
c) Фаза складання
d) Фаза ділення

81) У цьому класі асоціативних машин відгуки різних предикторов (експертів) об'єднуються за допомогою деякого механізму, не учитывающеrо вхідний сигнал.
a) +Статичні структури
b) Динамічні структури
c) Статистичні структури
d) Немає правильної відповіді

82) У цьому класі асоціативної машини вхідний сигнал безпосередньо враховується в механізмі об'єднання вихідних сигналів експертів
a) Статичні структури
b) +Динамічні структури
c) Статистичні структури
d) Немає правильної відповіді

83) Вихідний сиrнал обчислюється як лінійна комбінація виходів окремих предикторов.
a) +Усереднювання по ансамблю
b) Посилення
c) Зменшення
d) Немає правильної відповіді

84) Дія при якому слабкий алrоритм навчання перетворюється на алгоритм, що досягає довільної заданої точності.
a) Усереднювання по ансамблю
b) +Посилення
c) Зменшення
d) Немає правильної відповіді

85) Метод посилення може бути реалізований способами.
a) Посилення за рахунок фільтрації
b) Посилення за рахунок формування підвибірок
c) Посилення шляхом перевзвешивания
d) Немає правильної відповіді

86) Цей підхід припускає відбір прикладів навчання різними версіями слабкого алroритма навчання.
a) +Посилення за рахунок фільтрації
b) Посилення за рахунок формування підвибірок
c) Посилення шляхом перевзвешивания
d) Немає правильної відповіді

87) Цей підхід припускає наявність безлічі прикладів навчання фиксированноrо розміру.
a) Посилення за рахунок фільтрації
b) +Посилення за рахунок формування підвибірок
c) Посилення шляхом перевзвешивания
d) Немає правильної відповіді

88) Цей підхід пов'язаний з обробкою фіксованої безлічі прикладів.
a) Посилення за рахунок фільтрації
b) Посилення за рахунок формування підвибірок
c) +Посилення шляхом перевзвешивания
d) Немає правильної відповіді

89) Разниє генеральні сукупності генерують різні дані, приэтом походження будь-якого заданого прикладу правдоподібніше для некоторойопределеннои сукупності, чим для решти совокупностей.
a) +так
b) немає

90) Цей підхід забезпечує алroритм для максимізації в реальному часі.
a) +Підхід на основі стохастичного градієнта
b) Підхід на основі максимізації очікування
c) Підхід на основі мінімізації очікування
d) Немає правильної відповіді

91) Алroрітм максимізації очікування, згідно, реалізує ітеративну процедуру обчислення оцінки максимальноrо правдоподібності в ситуаціях, коли ця проблема вирішується дуже легко.
a) Підхід на основі стохастичного градієнта
b) +Підхід на основі максимізації очікування
c) Підхід на основі мінімізації очікування
d) Немає правильної відповіді

92) Крок на якому безліч спостережуваних даних неповного завдання і поточне значення вектора параметрів використовуються для отримання расширенноrо повного набору даних
а) +Шаг очікування
b)Шаг максимізації
з)Шаг зупинки
d)Нет правильної відповіді

93) Крок який полягає в обчисленні нової оцінки вектора параметрів шляхом максимізації функції логарифмическоro подібності повної безлічі даних
а)Шаг очікування
b) +Шаг максимізації
з)Шаг зупинки
d)Нет правильної відповіді

94) Перша об'єднана доповідь по теорії, методології і застосуванням алroритма ЇМ, по його історії і розширенням бьл представлений в
a) 1995 roдy
b) 1996 roдy
c) +1997 roдy
d) 1998 roдy

95) Моделі які дають уявлення про дане завдання, але не відрізняються особливою точністю.
a) +Прості моделі
b) Складні моделі
c) Складені моделі
d) Немає правильної відповіді

96) Моделі які дають точні результати, не дуже заглиблюючись в саме завдання.
a) Прості моделі
b) +Складні моделі
c) Складені моделі
d) Немає правильної відповіді

97) У відповідь на вхідні обурення дана мережа формує певні образи
a) +Рівень активності
b) Рівень зв'язності
c) Рівень зв'язаності
d) Рівень неактивності

98) Зв'язки мережі змінюються у відповідь на нейронних сиrналы образів активності блаrодаря синаптической пластичності.
a) Рівень активності
b) +Рівень зв'язності
c) Рівень зв'язаності
d) Рівень неактивності

99) Обмеженість ресурсів веде до конкуренції між синапсами і, таким чином, до вибору найбільш синапсів, що успішно розвиваються, за рахунок інших
a) +так
b) немає

100) Зміна синаптическux вагів веде до самоусилению мережі
a) +так
b) немає

101) Модифікація синаптических вагів веде до кооперації.
a) +так
b) немає

102) Порядок і структура образів активації містять надмірну інформацію, що накопичується мережею у формі знань, що є необхідною умовою навчання, що самоорганизующегося.
a) +так
b) немає

103) Після вибору положення синаптических зв'язків вони залишаються фіксованими впродовж всього процесу розвитку нейронної структури.
a) так
b) +немає

104) Всі нейрони виступають як лінійні суматори.
а)да
b) +нет

105) Методи нелинейноro аналізу rлавных компонентів (за винятком РСА ядра) можна розділити на класи
a) +Мережі Хебба
b) +Мережі реплікації
c) +Головні криві
d) Мережі регинирации

106) Клас отримувані шляхом заміни лінійних нейронів в подібних Хеббовським алгоритмах РСА нелінійними нейронами
a) +Мережі Хебба
b) Мережі реплікації
c) Головні криві
d) Мережі регинирации

107) Клас створений на базі багатошарових персептронів
a) Мережі Хебба
b) +Мережі реплікації
c) Головні криві
d) Мережі регинирации

108) Клас заснований на ітеративній оцінці кривої або поверхні, описыва-
ющей структуру даних
a) Мережі Хебба
b) Мережі реплікації
c) +Головні криві
d) Мережі регинирации

109) За допомогою еволюції або накопиченого досвіду мозок виявляє, що об'єкти можна класифікувати на класи об'єктів меншої розмірності, враховуючи їх форми.
a) +так
b) немає

110) У картах самоорганізації нейрони поміщаються у вузлах решеткu, зазвичай oднo– або двомірною.
a) +так
b) немає

111) Як нейронні моделі карти, що самоорганизующиеся, реалізують міст між двома рівнями адаптації.
а) +Правилами адаптації, сформульованими на мікрорівні одноrо нейрона.
b)Сети реплікації
з)Нет правильної відповіді
d) +Объединениями експериментально кращих і фізично доступніших моделей витягання ознак мікрорівнів шарів нейронів.

112) Обчислювальні карти володіють наступними властивостями .
a) Адаптивність
b) Немає правильної відповіді
c) +На кожному етапі уявлення що кожен поступає фраrмент інформації зберігається в своєму контексті.
d) +Нейрони, що працюють з близько розташованими областями інформації, також розташовані достатньо близько один до одного, таким чином взаємодіючи один з одним за допомогою коротких синаптических зв'язків.

113) Просторове положення вихідних нейронів в топографічній карті відповідає конкретній області ознак даних, виділених з вхідного простору.
a) +так
b) немає

114) Після коректної ініціалізації мережі для формування карти самоорганізації запускаються три наступні основні процеси.
a) +Конкуренція
b) +Кооперація
c) +Синаптічеськая адаптація
d) Немає правильної відповіді

115) Для каждоro входноro образу нейрони мережі обчислюють відносні значення функції дискримінанта.
a) +Конкуренція
b) Кооперація
c) Синаптічеськая адаптація
d) Немає правильної відповіді

116)Победивший нейрон визначає просторове положення топологічної околиці нейронів, забезпечуючи тим самим базис для кооперації між цими нейронами.
a) Конкуренція
b) +Кооперація
c) Синаптічеськая адаптація
d) Немає правильної відповіді

117) Останній механізм дозволяє збудженим нейронам збільшувати власні значення функцій дискримінантів по відношенню до вхідних образів за допомогою відповідних коректувань синаптических вагів.
a) Конкуренція
b) Кооперація
c) +Синаптічеськая адаптація
d) Немає правильної відповіді

118) Безперервний вхідний простір образів активації нейронів за допомогою процесу конкуренції між окремими нейронами мережі відображається в дискретний вихідний простір.
a) +так
b) немає

119) Алгоритм Ллойда вперше був описаний в
а)1954 року
b)1955 року
з)1956 року
d) +1957 року

120) Карта ознак Ф, npeдставленная безліччю векторів синаптическux вагів {Wj}, у вихідному просторі А реалізує хорошу апроксимацію вхідного простору Х.
a) +так
b) немає

121) Карта признаков Ф, полученная алгоритмам SOМ, является топjkjuически упорядоченной в том смысле, что пpocтpaнственное положение нейронов в решетке соответствует конкретной области или признаку входного образа.
a) +да
b) нет

42) Карта признаков Ф отражает вариации в статистиках распределения входного сигнала. Области во входном пространстве Х, из которого берутся векторы х с большей вероятностью, отображаются в
гораздо большие области выходногл пространства А и, таким образом, с большим разрешением, чем области в исходном пространстве Х, из которых берутся векторы х с меньшей вероятностью.
a) +да
b) нет

43) Для данных из входного пространства с нелинейным распределением самоорганизующаяся карта для аппроксимации исследуемого распределения способна извлечь набор наилучших признаков.
a) +да
b) нет

44) Идея квантования вектора обучения принадлежит
a) +Кохонену
b) Эдисону
c) Баесу
d) Хемингу

45) Наилучшего сжатия данных всегда можно добиться с помощью кодирования не вeкторов, а скаляров, даже если источник данных не имеет памяти, или если система сжатия данных имеет память
a) +да
b) нет

46) Устанавливаем количество векторов кодирования в некоторое малое число. Устанавливаем их положение в случайно выбранные примеры обучения
a) +Инициализация
b) Выбор вxoдного вектора
c) Кодирование входного вектора
¬d) Корректировка кодовой книги

47) Из множества примеров обучения случайным образом выби¬раем входной вектор
a) Инициализация
b) +Выбор вxoдного вектора
c) Кодирование входного вектора
¬d) Корректировка кодовой книги

48) Определяем "победивший" входной вектор (т.е. вектор синап¬тических весов нейрона¬победителя). Для этогo можно ис¬пользовать правило "ближайшего соседа" или "минимальногo искажения"
a) Инициализация
b) Выбор вxoдного вектора
c) +Кодирование входного вектора
¬d) Корректировка кодовой книги

49) Про изводим коррекцию победившеrо нейрона и ero "тополо¬гических соседей". При этом можно оставить параметр ин¬тенсивности обучения на некотором фиксированном значении и использовать для победившеrо нейрона коэффициент х, а для ero соседей ¬х/2
a) Инициализация
b) Выбор вxoдного вектора
c) Кодирование входного вектора
¬d) +Корректировка кодовой книги

50) Главной функцией систем обработки сигнала является раскрытие некоторой избыточности стимулирования для описания или кодировки информации в форме, более экономной, чем та, в которой она воспринимается рецепторами.
a) +да
b) нет

51) Термин "энтропия" В теории информации получил свое назваиие по аналоrии с энтропией в…
a) +Термодинамике
b) Квантовое физике
c) Механике
d) Нет правильного ответа

52) Если выводы основываются на неполной информации, она должна выбираться из распределения вероятности, максuмизирующего энтропию при заданных огpаничениях на распределение.
a) +да
b) нет

53) Преобразование случайною вектора Х, наблюдаемого на входном слое нейронной системы, в случайный вектор У, наблюдаемый на выходе той же системы, должно выбираться таким образом, чтобы совместная работа нейронов выходною слоя максимизировала информацию о деятельности входного слоя. Максимизируемой целевойфункцией при этом является взаимная информация I (Х; У) между векторами Х и У.
a) +да
b) нет

54) задачу слепого разделения источников можно сформулировать следующим образом. Для данных N независuмых реализаций вектора наблюдений Х найти оценку мaтpи¬цы, обратной матрице смешения А.
a) +да
b) нет

55) В этом приложении вектор х состоит из нескольких речевых сигналов, которые линейно смешаны друг с другом. При этом требуется разде¬лить эти сигналы
a) +Разделение речи.
b) Обработка антенной решетки
c) Мультисенсорные биомедицинские записи.
d) Анализ данных финансового рынка.

56) В этом приложении вeктор х представляет собой выход антенной решетки радара, полученный из несколь¬ких узкополосных сигналов, возникающих из источников, расположенных в неизвестных направлениях
a) Разделение речи.
b) +Обработка антенной решетки
c) Мультисенсорные биомедицинские записи.
d) Анализ данных финансового рынка.

57) В этом приложении вектор х состоит из записей, выполненных множеством сенсоров, используемых для мониторинга биолоrических сигналов.
a) Разделение речи.
b) Обработка антенной решетки
c) +Мультисенсорные биомедицинские записи.
d) Анализ данных финансового рынка.

58) В этом приложении вектор х состоит из множества данных финансовоro рынка, и из нeгo требуется извлечь доминантные независимые компоненты
a) Разделение речи.
b) Обработка антенной решетки
c) Мультисенсорные биомедицинские записи.
d) + Анализ данных финансового рынка.

Источник: vsholu.at.ua
Категория: Контроль знаний | Добавил: Armageddets (02.04.2013) | Автор: Тести. Нейронні мережі. Модуль 2 Ча
Просмотров: 1284 | Теги: Модуль, нейронные сети, тестовые задани, тесты, нейронні мережі | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Мини-чат

Форма входа

Поиск


Copyright MyCorp © 2025
Сделать бесплатный сайт с uCoz