Библиографический список к главе 3
1. Bishop C. M. Neural Networks for Pattern Recognition. — Oxford University Press, 1995. — 496 p. 2. Комарцова Л. Г., Максимов А. В. Нейрокомпьютеры. — М: Изд-во МГТУ им. Н. Э. Баумана, 2004. — 400 с. 3. Ежов А. А., Шумский С. А. Нейрокомпьютинг и его применения в экономике и бизнесе. — М.: МИФИ, 1998. — 222 с. 4. Swingler K. Applying Neural Networks. A Practical Guide. —Academic Press, 1996. — 303 p. 5. Снитюк В. Є. Прогнозування. Моделі. Методи. Алгоритми. — Київ: Маклаут, 2008. — 364 с. 6. Паклин Н. Б., Орешков В. И. Бизнес‑аналитика: от данных к знаниям. — СПб.: Питер, 2013. — 704 с. 7. Анализ данных и процессов / А. А. Барсегян, М. С. Куприянов, И. И. Холод, М. Д. Тесс, С. И. Елизаров. — СПб.: БХВ-Петербург, 2009. — 512 с. 8. Загоруйко Н. Г. Прикладные методы анализа данных и знаний. — Новосибирск: ИМ СО РАН, 1999. — 270 с. 9. Загоруйко Н. Г., Кутненко О. А. Цензурирование обучающей выборки // Вестник Томского государственного университета. Управление, вычислительная техника и информатика. — 2013. — № 1 (22). — С. 66–73. 10. Воронцов К. В. Математические методы обучения по прецедентам. [Электронный ресурс]. URL: http://www.machinelearning.ru/wiki/images/6/6d/Voron-ML-1.pdf (дата обращения: 10.04.2015). 11. Литтл Р. Дж. А., Рубин Д. Б. Статистический анализ данных с пропусками. — М.: Финансы и статистика, 1991. — 336 с. 12. Злоба Е., Яцкив И. Статистические методы восстановления пропущенных данных // Computer Modelling & New Technologies. —2002, vol. 6. — № 1. — P. 51–61. 13. Handbook of Missing Data Methodology / Molenberghs G., Fitzmaurice G., Kenward M. G., Tsiatis A., Verbeke G. — Chapman and Hall/CRC, 2014. — 600 p. 14. Allison P. D. Missing Data. — SAGE Publications, 2001. — 104 p. 15. Craig E. K. Applied Missing Data Analysis. — Guilford Press, 2010 — 377 p. 16. Graham J. W. Missing Data: Analysis and Design. — Springer, 2012. — 360 p. 17. Imputation (statistics). [Электронный ресурс]. URL: http://en.wikipedia.org/wiki/Imputation_(statistics) (дата обращения: 10.04.2015). 18. Carpenter J., Kenward M. Multiple Imputation and its Application. — Wiley, 2013. — 364 p. 19. Кластерный метод восстановления пропусков в данных для обучения ИНС / В. В. Аюев, 3. Е. Аунг, Чжо Мин Тейн, М. Б. Логинова // Нейрокомпьютеры: разработка, применение. — 2009. — № 7. — С. 23–34. 20. Горбаченко В. И. Вычислительная линейная алгебра с примерами на MATLAB. —СПб.: БХВ‑Петербург, 2011. — 320 с. 21. Большаков А. А., Каримов Р. Н. Методы обработки многомерных данных и временных рядов. — М.: Горячая линия‑Телеком, 2007. — 522 с. 22. Миркес Е. М. Нейроинформатика. — Красноярск: ИПЦ КГТУ, 2002. — 347 с. 23. Предварительная обработка данных (часть 2). [Электронный ресурс]. URL: http://iissvit.narod.ru/rass/vip26.htm(дата обращения: 10.04.2015). 24. Прикладная статистика. Классификация и снижение размерности / С. А. Айвазян, В. М. Бухштабер, И. С. Енюков, Л. Д. Мешалкин. — М.: Финансы и статистика, 1989. — 607 с. 25. Фукунага К. Введение в статистическую теорию распознавания образов. — М.: Наука. Главная редакция физико‑математической литературы, 1979. — 368 с. 26. Куликов Е. И. Прикладной статистический анализ. — М.: Горячая линия–Телеком, 2008. — 464 с. 27. Вуколов Э. А. Основы статистического анализа. Практикум по статистическим методам и исследованию операций с использованием пакетов STASISTICA и EXCEL. — М.: ФОРУМ: ИНФРА–М, 2004. — 2004. — 464 с. 28. Галушкин А. И. Нейронные сети: основы теории. — М.: Горячая линия–Телеком, 2010. — 496 с. 29. Дрейпер Н., Смит Г. Прикладной регрессионный анализ. Множественная регрессия. — М.: Вильямс, 2007. — 912 с. 30. Воронцов К. В. Лекции по методам оценивания и выбора моделей. [Электронный ресурс]. URL: http://www.machinelearning.ru/wiki/images/2/2d/Voron-ML-Modeling.pdf (дата обращения: 10.04.2015). 31. Liu H., Motoda H. Computational Methods of Feature Selection. — Chapman and Hall/CRC, 2007. — 440 p. 32. Осовский С. Нейронные сети для обработки информации. — М.: Финансы и статистика, 2002. — 344 с. 33. Хайкин С. Нейронные сети: полный курс. — М.: Вильямс, 2006. — 1104 с. 34. Good P. I. Resampling Methods: A Practical Guide to Data Analysis. — Birkhäuser, 2006. — 228 p. 35. Шитиков В. К., Розенберг Г. С. Рандомизация и бутстреп: статистический анализ в биологии и экологии с использованием R. — Тольятти: "Кассандра", 2013. — 305 с. [Электронный ресурс]. URL: http://www.ievbras.ru/ecostat/Kiril/Article/A32/Starb.pdf (дата обращения: 10.04.2015). 36. Эфрон Б. Нетрадиционные методы многомерного статистического анализа. — М.: Финансы и статистика, 1988. — 263 с. 37. Орлов А. И. Эконометрика. — М.: "Экзамен", 2004. — 576 с. 38. Медведев В. С., Потемкин В. Г. Нейронные сети. MATLAB 6. — М.: ДИАЛОГ‑МИФИ, 2002. — 496 с. 39. Перекрёстная энтропия. [Электронный ресурс]. URL: http://ru.wikipedia.org/wiki/Перекрёстная_энтропия (дата обращения: 10.04.2015). 40. Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с. 41. Masters T. Practical Neural Network Recipies in C++. — Morgan Kaufmann, 1993. — 493 p. 42. Widrow B., Lehr M. A. 30 years of adaptive neural networks: perceptron, Madaline, and backpropagation // Proceedings of the IEEE. — 1990, Volume 78. — No. 9. — P. 1415–1442. 43. Гладков Л. А., Курейчик В. В., Курейчик В. М. Генетические алгоритмы. — М.: ФИЗМАТЛИТ, 2010. — 368 с. 44. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. — М: Горячая линия-Телеком, 2004. — С. 452. 45. Рутковский Л. Методы и технологии искусственного интеллекта. — М: Горячая линия-Телеком, 2010. — С. 520. 46. Цой Ю. Р., Спицын В. Г. Эволюционный подход к настройке и обучению искусственных нейронных сетей // Электронный журнал "Нейроинформатика". — 2006, том 1. — № 1. — С. 34–61. [Электронный ресурс]. URL: http://www.niisi.ru/iont/ni/Journal/N1/TsoySp.pdf (дата обращения: 10.04.2015). 47. Цой Ю. Р. Введение в нейроэволюционный подход: основные концепции и приложения // Научная сессия МИФИ - 2007. IX Всероссийская научно-техническая конференция "Нейроинформатика-2007": Лекции по нейроинформатике. Часть 2. — М.: МИФИ, 2007. — С. 43–76. 48. Руденко О. Г., Бодянський Є. В. Штучні нейронні мережі. — Харків: ТОВ "Компанія СМІТ", 2006. — 404 с. 49. Тихонов А. Н., Арсенин В. Я. Методы решения некорректных задач. — М.: Наука, 1986. — 288 с. 50. Кудрявцев Л. Д. Краткий курс математического анализа. Т. 2. Дифференциальное и интегральное исчисления функций многих переменных. Гармонический анализ. — М.: ФИЗМАТЛИТ, 2003. — 425 с. 51. Бертсекас Д. Условная оптимизация и методы множителей Лагранжа. — М.: Радио и связь, 1987. — 400 с. 52. Канторович Л. В., Акилов Г. П. Функциональный анализ. — СПб.: Невский Диалект, БХВ‑Петербург, 2004. — 816 с. 53. Нейронные сети. STATISTICA Neural Networks: Методология и технологии современного анализа данных / Под редакцией В. П. Боровикова. — М.: Горячая линия‑Телеком, 2008. — 392 с. 54. Bishop C. M. Training with noise is equivalent to Tikhonov regularization // Neural Computation. — 1995, vol. 7. — Issue 1. — P. 108–116. 55. Beale M. H., Hagan M. T., Demuth H. B. MATLAB R2013b. Neural Network Toolbox Getting Started Guid. — The MathWorks, Inc. — 130 p. 56. ГОСТ Р 50779.10-2000 (ИСО 3534-1-93). Статистические методы. Вероятность и основы статистики. Термины и определения. — М.: Госстандарт России, 2005. — 42 с. 57. Терехов С. А. Гениальные комитеты умных машин // Научная сессия МИФИ-2007. IX Всероссийская научно-техническая конференция "Нейроинформатика-2007": Лекции по нейроинформатике. Часть 2. — М.: МИФИ, 2007. — С. 11–42. 58. Воронцов К. В. Лекции по алгоритмическим композициям. [Электронный ресурс]. URL: http://www.ccas.ru/voron/download/Composition.pdf (дата обращения: 10.04.2015). 59. Гончаров М. Ансамбли моделей. [Электронный ресурс]. URL: http://www.businessdataanalytics.ru/download/ModelEnsembles.pdf (дата обращения: 10.04.2015). 60. Breiman L. Bagging predictors // Machine Learning. — 1996, Vol. 24. — No. 2. —P. 123–140. 61. Freund Y., Schapire R. E. A short introduction to boosting // Journal of Japanese Society for Artificial Intelligence. — 1999, Vol. 14. — No 5. — P. 771–780. 62. Schapire R. The boosting approach to machine learning: An overview // Nonlinear Estimation and Classification. — Springer, 2003. — 149–171.
[1] Кохонен Т. Самоорганизующиеся карты. — М.: БИНОМ. Лаборатория знаний, 2008. — С. 11. [2] В [32] компоненты вектора имеют противоположные знаки, это объясняется тем, что вычисляются коллинеарные собственные векторы.
[3] Вапник Владимир Наумович (1936) — крупный специалист в области машинного обучения. С 1990 г. работает в США. С 2003 г. является профессором колледжа Royal Holloway Лондонского университета и профессором Колумбийского университета в Нью-Йорке. Червоне́нкис Алексей Яковлевич (1938–2014) — российский ученый, ведущий сотрудник Института проблем управления им. В. А. Трапезникова РАН, профессор колледжа Royal Holloway Лондонского университета.
Популярное: Как построить свою речь (словесное оформление):
При подготовке публичного выступления перед оратором возникает вопрос, как лучше словесно оформить свою... Почему двоичная система счисления так распространена?: Каждая цифра должна быть как-то представлена на физическом носителе... Генезис конфликтологии как науки в древней Греции: Для уяснения предыстории конфликтологии существенное значение имеет обращение к античной... ©2015-2024 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (808)
|
Почему 1285321 студент выбрали МегаОбучалку... Система поиска информации Мобильная версия сайта Удобная навигация Нет шокирующей рекламы |