Мегаобучалка Главная | О нас | Обратная связь


Библиографический список к главе 3



2016-01-02 807 Обсуждений (0)
Библиографический список к главе 3 0.00 из 5.00 0 оценок




 

1. Bishop C. M. Neural Networks for Pattern Recognition. — Oxford University Press, 1995. — 496 p.

2. Комарцова Л. Г., Макси­мов А. В. Нейрокомпьютеры. — М: Изд-во МГТУ им. Н. Э. Баумана, 2004. — 400 с.

3. Ежов А. А., Шумский С. А. Нейрокомпьютинг и его применения в экономике и бизнесе. — М.: МИФИ, 1998. — 222 с.

4. Swingler K. Applying Neural Networks. A Practical Guide. —Academic Press, 1996. — 303 p.

5. Снитюк В. Є. Прогнозування. Моделі. Методи. Алгоритми. — Київ: Маклаут, 2008. — 364 с.

6. Паклин Н. Б., Орешков В. И. Бизнес‑аналитика: от данных к знаниям. — СПб.: Питер, 2013. — 704 с.

7. Анализ данных и процессов / А. А. Барсегян, М. С. Куприянов, И. И. Холод, М. Д. Тесс, С. И. Елизаров. — СПб.: БХВ-Петербург, 2009. — 512 с.

8. Загоруйко Н. Г. Прикладные методы анализа данных и знаний. — Новосибирск: ИМ СО РАН, 1999. — 270 с.

9. Загоруйко Н. Г., Кутненко О. А. Цензурирование обучающей выборки // Вестник Томского государственного университета. Управление, вычислительная техника и информатика. — 2013. — № 1 (22). — С. 66–73.

10. Воронцов К. В. Математические методы обучения по прецедентам. [Электронный ресурс].

URL: http://www.machinelearning.ru/wiki/images/6/6d/Voron-ML-1.pdf (дата обращения: 10.04.2015).

11. Литтл Р. Дж. А., Рубин Д. Б. Статистический анализ данных с пропусками. — М.: Финансы и статистика, 1991. — 336 с.

12. Злоба Е., Яцкив И. Статистические методы восстановления пропущенных данных // Computer Modelling & New Technologies. —2002, vol. 6. — № 1. — P. 51–61.

13. Handbook of Missing Data Methodology / Molenberghs G., Fitzmaurice G., Kenward M. G., Tsiatis A., Verbeke G. — Chapman and Hall/CRC, 2014. — 600 p.

14. Allison P. D. Missing Data. — SAGE Publications, 2001. — 104 p.

15. Craig E. K. Applied Missing Data Analysis. — Guilford Press, 2010 — 377 p.

16. Graham J. W. Missing Data: Analysis and Design. — Springer, 2012. — 360 p.

17. Imputation (statistics). [Электронный ресурс].

URL: http://en.wikipedia.org/wiki/Imputation_(statistics) (дата обращения: 10.04.2015).

18. Carpenter J., Kenward M. Multiple Imputation and its Application. — Wiley, 2013. — 364 p.

19. Кластерный метод восстановления пропусков в данных для обучения ИНС / В. В. Аюев, 3. Е. Аунг, Чжо Мин Тейн, М. Б. Логинова // Нейрокомпьютеры: разработка, применение. — 2009. — № 7. — С. 23–34.

20. Горбаченко В. И. Вычислительная линейная алгебра с примерами на MATLAB. —СПб.: БХВ‑Петербург, 2011. — 320 с.

21. Большаков А. А., Каримов Р. Н. Методы обработки многомерных данных и временных рядов. — М.: Горячая линия‑Телеком, 2007. — 522 с.

22. Миркес Е. М. Нейроинформатика. — Красноярск: ИПЦ КГТУ, 2002. — 347 с.

23. Предварительная обработка данных (часть 2). [Электронный ресурс]. URL: http://iissvit.narod.ru/rass/vip26.htm(дата обращения: 10.04.2015).

24. Прикладная статистика. Классификация и снижение размерности / С. А. Айвазян, В. М. Бухштабер, И. С. Енюков, Л. Д. Мешалкин. — М.: Финансы и статистика, 1989. — 607 с.

25. Фукунага К. Введение в статистическую теорию распознавания образов. — М.: Наука. Главная редакция физико‑математической литературы, 1979. — 368 с.

26. Куликов Е. И. Прикладной статистический анализ. — М.: Горячая линия–Телеком, 2008. — 464 с.

27. Вуколов Э. А. Основы статистического анализа. Практикум по статистическим методам и исследованию операций с использованием пакетов STASISTICA и EXCEL. — М.: ФОРУМ: ИНФРА–М, 2004. — 2004. — 464 с.

28. Галушкин А. И. Нейронные сети: основы теории. — М.: Горячая линия–Телеком, 2010. — 496 с.

29. Дрейпер Н., Смит Г. Прикладной регрессионный анализ. Множественная регрессия. — М.: Вильямс, 2007. — 912 с.

30. Воронцов К. В. Лекции по методам оценивания и выбора моделей. [Электронный ресурс].

URL: http://www.machinelearning.ru/wiki/images/2/2d/Voron-ML-Modeling.pdf

(дата обращения: 10.04.2015).

31. Liu H., Motoda H. Computational Methods of Feature Selection. — Chapman and Hall/CRC, 2007. — 440 p.

32. Осовский С. Нейронные сети для обработки информации. — М.: Финансы и статистика, 2002. — 344 с.

33. Хайкин С. Нейронные сети: полный курс. — М.: Вильямс, 2006. — 1104 с.

34. Good P. I. Resampling Methods: A Practical Guide to Data Analysis. — Birkhäuser, 2006. — 228 p.

35. Шитиков В. К., Розенберг Г. С. Рандомизация и бутстреп: статистический анализ в биологии и экологии с использованием R. — Тольятти: "Кассандра", 2013. — 305 с. [Электронный ресурс].

URL: http://www.ievbras.ru/ecostat/Kiril/Article/A32/Starb.pdf

(дата обращения: 10.04.2015).

36. Эфрон Б. Нетрадиционные методы многомерного статистического анализа. — М.: Финансы и статистика, 1988. — 263 с.

37. Орлов А. И. Эконометрика. — М.: "Экзамен", 2004. — 576 с.

38. Медведев В. С., Потемкин В. Г. Нейронные сети. MATLAB 6. — М.: ДИАЛОГ‑МИФИ, 2002. — 496 с.

39. Перекрёстная энтропия. [Электронный ресурс].

URL: http://ru.wikipedia.org/wiki/Перекрёстная_энтропия (дата обращения: 10.04.2015).

40. Вапник В. Н. Восстановление зависимостей по эмпирическим данным. — М.: Наука, 1979. — 448 с.

41. Masters T. Practical Neural Network Recipies in C++. — Morgan Kaufmann, 1993. — 493 p.

42. Widrow B., Lehr M. A. 30 years of adaptive neural networks: perceptron, Madaline, and backpropagation // Proceedings of the IEEE. — 1990, Volume 78. — No. 9. — P. 1415–1442.

43. Гладков Л. А., Курейчик В. В., Курейчик В. М. Генетические алгоритмы. — М.: ФИЗМАТЛИТ, 2010. — 368 с.

44. Рутковская Д., Пилиньский М., Рутковский Л. Нейронные сети, генетические алгоритмы и нечеткие системы. — М: Горячая линия-Телеком, 2004. — С. 452.

45. Рутковский Л. Методы и технологии искусственного интеллекта. — М: Горячая линия-Телеком, 2010. — С. 520.

46. Цой Ю. Р., Спицын В. Г. Эволюционный подход к настройке и обучению искусственных нейронных сетей // Электронный журнал "Нейроинформатика". — 2006, том 1. — № 1. — С. 34–61. [Электронный ресурс]. URL: http://www.niisi.ru/iont/ni/Journal/N1/TsoySp.pdf

(дата обращения: 10.04.2015).

47. Цой Ю. Р. Введение в нейроэволюционный подход: основные концепции и приложения // Научная сессия МИФИ - 2007. IX Всероссийская научно-техническая конференция "Нейроинформатика-2007": Лекции по нейроинформатике. Часть 2. — М.: МИФИ, 2007. — С. 43–76.

48. Руденко О. Г., Бодянський Є. В. Штучні нейронні мережі. — Харків: ТОВ "Компанія СМІТ", 2006. — 404 с.

49. Тихонов А. Н., Арсенин В. Я. Методы решения некорректных задач. — М.: Наука, 1986. — 288 с.

50. Кудрявцев Л. Д. Краткий курс математического анализа. Т. 2. Дифференциальное и интегральное исчисления функций многих переменных. Гармонический анализ. — М.: ФИЗМАТЛИТ, 2003. — 425 с.

51. Бертсекас Д. Условная оптимизация и методы множителей Лагранжа. — М.: Радио и связь, 1987. — 400 с.

52. Канторович Л. В., Акилов Г. П. Функциональный анализ. — СПб.: Невский Диалект, БХВ‑Петербург, 2004. — 816 с.

53. Нейронные сети. STATISTICA Neural Networks: Методология и технологии современного анализа данных / Под редакцией В. П. Боровикова. — М.: Горячая линия‑Телеком, 2008. — 392 с.

54. Bishop C. M. Training with noise is equivalent to Tikhonov regularization // Neural Computation. — 1995, vol. 7. — Issue 1. — P. 108–116.

55. Beale M. H., Hagan M. T., Demuth H. B. MATLAB R2013b. Neural Network Toolbox Getting Started Guid. — The MathWorks, Inc. — 130 p.

56. ГОСТ Р 50779.10-2000 (ИСО 3534-1-93). Статистические методы. Вероятность и основы статистики. Термины и определения. — М.: Госстандарт России, 2005. — 42 с.

57. Терехов С. А. Гениальные комитеты умных машин // Научная сессия МИФИ-2007. IX Всероссийская научно-техническая конференция "Нейроинформатика-2007": Лекции по нейроинформатике. Часть 2. — М.: МИФИ, 2007. — С. 11–42.

58. Воронцов К. В. Лекции по алгоритмическим композициям.

[Электронный ресурс].

URL: http://www.ccas.ru/voron/download/Composition.pdf (дата обращения: 10.04.2015).

59. Гончаров М. Ансамбли моделей. [Электронный ресурс].

URL: http://www.businessdataanalytics.ru/download/ModelEnsembles.pdf

(дата обращения: 10.04.2015).

60. Breiman L. Bagging predictors // Machine Learning. — 1996, Vol. 24. — No. 2. —P. 123–140.

61. Freund Y., Schapire R. E. A short introduction to boosting // Journal of Japanese Society for Artificial Intelligence. — 1999, Vol. 14. — No 5. — P. 771–780.

62. Schapire R. The boosting approach to machine learning: An overview // Nonlinear Estimation and Classification. — Springer, 2003. — 149–171.

 


[1] Кохонен Т. Самоорганизующиеся карты. — М.: БИНОМ. Лаборатория знаний, 2008. — С. 11.

[2] В [32] компоненты вектора имеют противоположные знаки, это объясняется тем, что вычисляются коллинеарные собственные векторы.

 

[3] Вапник Владимир Наумович (1936) — крупный специалист в области машинного обучения. С 1990 г. работает в США. С 2003 г. является профессором колледжа Royal Holloway Лондонского университета и профессором Колумбийского университета в Нью-Йорке.

Червоне́нкис Алексей Яковлевич (1938–2014) — российский ученый, ведущий сотрудник Института проблем управления им. В. А. Трапезникова РАН, профессор колледжа Royal Holloway Лондонского университета.

 



2016-01-02 807 Обсуждений (0)
Библиографический список к главе 3 0.00 из 5.00 0 оценок









Обсуждение в статье: Библиографический список к главе 3

Обсуждений еще не было, будьте первым... ↓↓↓

Отправить сообщение

Популярное:



©2015-2024 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (807)

Почему 1285321 студент выбрали МегаОбучалку...

Система поиска информации

Мобильная версия сайта

Удобная навигация

Нет шокирующей рекламы



(0.006 сек.)