Информатика и системы управления
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Другие журналы

электронный журнал

МОЛОДЕЖНЫЙ НАУЧНО-ТЕХНИЧЕСКИЙ ВЕСТНИК

Издатель ФГБОУ ВПО "МГТУ им. Н.Э. Баумана". Эл No. ФС77-51038. ISSN 2307-0609

Проектирование искусственных нейронных сетей

Молодежный научно-технический вестник # 05, май 2017
УДК: 004.8
Файл статьи: Минакова С.В..pdf (322.37Кб)
автор: Минакова С. В.

[1].       Кириченко А.А. Нейропакеты – современный интеллектуальный инструмент исследователя. Режим доступа: https://www.hse.ru/data/2013/08/26/1290192359/Нейропакеты–современный интеллектуальный инструмент исследователя.pdf (дата обращения 10.03.17).

[2].       Rosenblatt F.  The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain. Cornell Aeronautical Laboratory // Psychological Review. 1958. Vol. 65, no. 6.. P. 386-408.

[3].       Bourlard H., Kamp, Y. Auto-association by multilayer perceptrons and singular value decomposition // Biological. Cybernetics. 1988. Vol. 59, no. 4-5. DOI: 10.1007/BF00332918.

[4].       Broomhead D. S., Lowe D. Radial Basis Functions, multi-variable functional interpolation and adaptive networks // Complex Systems. 1988. Vol. 2, no. 3. P. 321–355.

[5].       Elman J. Finding structure in time // Cognitive Science. 1990. Vol. 14, no. 2. P. 179-211.  DOI: 10.1207/s15516709cog1402_1.

[6].       Hopfield J.J. Neural network and physical system with emergent collective computation abilities // Proceedings of the National Academy of Sciences of the United States of America. 1982. Vol. 79, no. 8. P. 2554-2558. DOI: 10.1073.

[7].       Kohonen T. Self-Organized Formation of Topologically Correct Feature Maps // Biological Cybernetics. Vol. 43, no. 1. P. 59-69. DOI: 10.1007/BF00337288.

[8].        Carpenter G.A., Grossberg, S.Adaptive Resonance Theory The Handbook of Brain Theory and Neural Networks. 2nd ed., Cambridge, MA: MIT Press, 2003. 90 p.

[9].       Simon Haykin. Neural Networks: A Comprehensive Foundation. Pearson Education  Inc., 1999. 823 p. DOI: 10.1109/5.726791.

[10].   LeCun Y., Bottou L., Bengio Y., Haffner P. Gradient-Based Learning Applied to Document Recognition // Proceedings of the IEEE. Vol. 86, no. 11. P. 2278–2324. DOI:10.1109/5.726791.

[11].   Zeiler M.D., Krishnan D., Taylor G.W., Fergus R. Deconvolutional Networks // Conference on Computer Vision and Pattern Recognition (CVPR) (San Francisco, June 13-18, 2010).

[12].   Krizhevsky A., Sutskever I., Hinton G.E. Advances in Neural Information Processing Systems // 12th International Conference on Computer Vision (Kyoto, December 3-8, 2009).

[13].   Simonyan K., Zisserman A. Very Deep Convolutional Networks For Large-Scale Image Recognition // International Conference on Learning Representations (ICLR) (San Diego, May 7-9, 2015).

[14].   He K., Zhang X., Ren S., Sun J. Deep Residual Learning for Image Recognition // Conference on Computer Vision and Pattern Recognition (CVPR). USA. 2016. P. 770-778. DOI: 10.1109/CVPR.2016.90.

[15].   Хехт-Нильсен. Отображение теоремы Колмогорова в терминах искусственных нейронных сетей // Международная конференция по нейронным сетям (Нью-Йорк, 17-21 июня 1987 г.).

[16].   Bengio Y., LeCun Y., Hinton J. Deep Learning // Nature. 2015. Vol. 521. P 436-444. DOI: 10.1038/nature14539.

[17].   Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. 2-e  изд. М.: изд-во Горячая линия-Телеком, 2002. 382 с.

[18].   ЛеКун Я.,Денкер Дж., Солла С. Оптимальное прореживание нейронных сетей / под ред. Д. Турецкого. 1990. 605 с.

[19].   Фальман С.Е., Лебьер С. Архитектура сети каскадной корреляции // Достижения в NIPS2 / под ред. Д. Турецкого. 1990. С. 524-532.

[20].   Гладков Л.А., Курейчик В.В., Курейчик В.М. Генетические алгоритмы: учебное пособие.2-е изд. М.: Физматлит, 2006. 320 с.

[21].   Stanley K.O, Miikkulainen R.Evolving Neural Networks Through Augmenting Topologies // Evolutionary Computation. 2002.Vol. 10, no 2. P. 99-127.DOI: 10.1162/106365602320169811.

[22].   Töscher A., Jahrer M. The BigChaos solution to the Netflix Prize 2008 // The Netflix prize Competition (Los Gatos, November 25, 2008).

[23].   Brownlee J. How to Build an Ensemble Of Machine Learning Algorithms in R (ready to use boosting, bagging and stacking), R Machine Learning. Available at http://machinelearningmastery.com/category/r-machine-learning/, accessed 15.02.2017.

[24].   Li D., Yu D., Platt J. Scalable stacking and learning for building deep architectures  // IEEE International Conference Speech and Signal Processing (ICASSP) (Kyoto, March 25-30, 2012).

[25].   Rumelhart D.E., Hinton G.E., Williams R.J. Learning internal representations by error propagation // Parallel distributed processing. 1986. Vol. 1. P. 318-62.

[26].   Мандель И. Д. Кластерный анализ. М.: Финансы и статистика, 1988. 176 с.

[27].   Линник Ю. В. Метод наименьших квадратов и основы математико-статистической теории обработки наблюдений. 2-е изд. М.: гос. изд. физико-математической литературы, 1962. 354 с.

[28].   Pascanu R., Mikolov T., Bengio Y. Understanding the exploding gradient problem  // International Conference on Machine Learning (ICML) (Edinburgh, June 26 – July 1, 2012).

[29].   Klimauskas G. Neural Ware — User manual. Natick, USA: Neural Ware Inc., 1992. 30 p.

[30].   Hahnloser R., Sarpeshkar R., Mahowald M.A., Douglas R.J., Seung H.S. Digital selection and analogue amplification coexist in a cortex-inspired silicon circuit // Nature. 2000. Vol. 405, no. 10. P. 947–951.DOI: 10.1038/35016072.

[31].   He K., Zhang X., Ren S., Sun J. Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification // International Conference on Computer Vision (ICCV) (Santiago, December 13-16, 2015).

[32].   Осовский С. Нейронные сети для обработки информации. М.: Финансы и статистика, 2002. 344 c.

[33].   Duchi J., Hazan E., Singer Y. Adaptive subgradient methods for online learning and stochastic optimization // 28th International Conference on Machine Learning (ICML) (Bellevue, June 28 – July 2, 2011).

[34].   Tieleman T., Hinton G. Lecture 6.5-rmsprop: Divide the gradient by a running average of its recent magnitude. COURSERA: Neural Networks for Machine Learning. 2012. Vol. 4. P. 220.


Тематические рубрики:
Поделиться:
 
ПОИСК
 
elibrary crossref neicon rusycon
 
ЮБИЛЕИ
ФОТОРЕПОРТАЖИ
 
СОБЫТИЯ
 
НОВОСТНАЯ ЛЕНТА



Авторы
Пресс-релизы
Библиотека
Конференции
Выставки
О проекте
Rambler's Top100
Телефон: +7 (499) 263-61-98
  RSS
© 2003-2017 «Молодежный научно-технический вестник» Тел.: +7 (499) 263-61-98