Skip navigation

putin IS MURDERER

Please use this identifier to cite or link to this item: https://oldena.lpnu.ua/handle/ntb/56350
Full metadata record
DC FieldValueLanguage
dc.contributor.authorХома, Ю. В.
dc.contributor.authorБенч, А. Я.
dc.contributor.authorKhoma, Y.
dc.contributor.authorBench, A.
dc.date.accessioned2021-04-20T11:41:54Z-
dc.date.available2021-04-20T11:41:54Z-
dc.date.created2019-03-01
dc.date.issued2019-03-01
dc.identifier.citationХома Ю. В. Порівняльний аналіз програмно-апаратного забезпечення алгоритмів глибокого навчання / Ю. В. Хома, А. Я. Бенч // Комп’ютерні системи та мережі. — Львів : Видавництво Львівської політехніки, 2019. — Том 1. — № 1. — С. 97–102.
dc.identifier.issn2707-2371
dc.identifier.urihttps://ena.lpnu.ua/handle/ntb/56350-
dc.description.abstractАвтоматичний переклад, розпізнавання мови та її синтез, розпізнавання об’єктів та навіть людських емоцій – надзвичайно складні завдання, із якими легко справляються сучасні смартфони. Їх ефективна реалізація стала можливою завдяки широкому застосуванню алгоритмів штучного інтелекту та машинного навчання, серед яких надзвичайно популярними є штучні нейронні мережі та алгоритми глибокого навчання. Ці алгоритми проникли в усі галузі індустрії, а їх стрімкий розвиток неможливий без застосування апаратної акселерації та чіткої взаємодії між апаратними складовими та програмним забезпеченням. Особливо актуальним це завдання стає, коли програмне забезпечення, призначене для застосування в хмарах, адаптується для невеликих за розміром та обчислювальними потужностями вбудованих систем. Статтю присвячено трьом пунктам, що, відповідно, пов’язані з програмним забезпеченням глибокого навчання, спеціалізованою апаратурою на основі GPU та перспективами побудови акселераторів для алгоритмів глибокого навчання на основі програмованих логічних матриць. У роботі проведено порівняльний аналіз найпопулярніших програмних фреймворків, таких як Caffe, Theano, Torch, MXNet, Tensorflow, Neon, CNTK. Описано переваги GPU-рішень на основі CUDA і cuDNN. Розглянуто перспективи FPGA як високошвидкісних та енергоефективних рішень для розроблення алгоритмів глибокого навчання, особливо у поєднанні з мовою OpenCL.
dc.description.abstractThe automated translation, speech recognition and synthesis, object detection as well as emotion recognition are well known complex tasks that modern smartphone can solve. It became possible with intensive usage of algorithms of Artificial Intelligence and Machine Learning. Most popular now are implementations of deep neural networks and deep learning algorithms. Such algorithms are widely used in all verticals and need hardware accelerators as well as deep cooperation between both software and hardware parts. The mentioned task became very actual during embedding of cloud-based algorithms into systems with limited computing capabilities, small physical size, and extremely low power consumption. The aim of this paper is to compare existing software and hardware solutions dedicated to the development of artificial neural networks and deep learning applications. The paper is focused on three topics related to deep learning software frameworks, specialized GPU-based hardware, and prospects of deep learning acceleration using FPGA. The most popular software frameworks, such as Caffe, Theano, Torch, MXNet, Tensorflow, Neon, CNTK have been compared and analyzed in the paper. Advantages of GPU solutions based on CUDA and cuDNN frameworks have been described. Prospects of FPGA as high-speed and power-efficient solutions for deep learning algorithm design, especially in terms of combination with OpenCL language have been discussed in the paper.
dc.format.extent97-102
dc.language.isouk
dc.publisherВидавництво Львівської політехніки
dc.publisherLviv Politechnic Publishing House
dc.relation.ispartofКомп’ютерні системи та мережі, 1 (1), 2019
dc.relation.urihttps://www.nvidia.com/object/doc_gpu_compute.html
dc.relation.urihttps://docs.nvidia.com/cuda/
dc.relation.urihttps://docs.nvidia.com/deeplearning/
dc.relation.urihttps://aws.amazon.com/ec2/
dc.relation.urihttps://cloud.google.com/tpu/docs/
dc.relation.urihttps://www.xilinx.com/support/documentation/
dc.relation.urihttps://arxiv.org/pdf/1701.03534.pdf
dc.subjectштучний інтелект
dc.subjectалгоритми глибокого навчання
dc.subjectштучні нейронні мережі
dc.subjectпрограмні рішення
dc.subjectartificial intelligence
dc.subjectdeep learning algorithms
dc.subjectartificial neural networks
dc.subjectsoftware solutions
dc.titleПорівняльний аналіз програмно-апаратного забезпечення алгоритмів глибокого навчання
dc.title.alternativeComparative analysis of the specialized software and hardware for deep learning algorithms
dc.typeArticle
dc.rights.holder© Національний університет “Львівська політехніка”, 2019
dc.rights.holder© Хома Ю. В., Бенч А. Я., 2019
dc.contributor.affiliationНаціональний університет “Львівська політехніка”
dc.contributor.affiliationLviv Polytechnic National University
dc.format.pages6
dc.identifier.citationenKhoma Y. Comparative analysis of the specialized software and hardware for deep learning algorithms / Y. Khoma, A. Bench // Kompiuterni systemy ta merezhi. — Lviv : Lviv Politechnic Publishing House, 2019. — Vol 1. — No 1. — P. 97–102.
dc.relation.references1. Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics), Springer-Verlag Berlin, Heidelberg, 2006.
dc.relation.references2. Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning, The MIT Press, 2016.
dc.relation.references3. L. Deng and D. Yu. Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing, 2013, vol. 7, nos. 3–4, pp. 197–387.
dc.relation.references4. Mostapha Zbakh, Mohammed Essaaidi, Pierre Manneback, Chunming Rong, Cloud Computing and Big Data: Technologies, Applications and Security, Springer International Publishing, 2019.
dc.relation.references5. Gerassimos Barlas, Multicore and GPU Programming: An Integrated Approach, Morgan Kaufmann Publishers Inc., San Francisco, CA, 2014.
dc.relation.references6. Seonwoo Min, Byunghan Lee, Sungroh Yoon; Deep learning in bioinformatics, Briefings in Bioinformatics, Volume 18, Issue 5, 1 September 2017, pp. 851–869.
dc.relation.references7. NVIDIA GPU Computing. https://www.nvidia.com/object/doc_gpu_compute.html
dc.relation.references8. CUDA Toolkit Documentation. https://docs.nvidia.com/cuda/
dc.relation.references9. cuDNN Developer Guide. https://docs.nvidia.com/deeplearning/ sdk/cudnn-developer-guide/index.html
dc.relation.references10. Amazon EC2 F1 Instances. https://aws.amazon.com/ec2/ instance-types/f1/
dc.relation.references11. Cloud TPU documentation. https://cloud.google.com/tpu/docs/
dc.relation.references12. Accelerating DNNs with Xilinx Alveo Accelerator Cards. https://www.xilinx.com/support/documentation/ white_papers/wp504-accel-dnns.pdf
dc.relation.references13. An OpenCLTM Deep Learning Accelerator on Arria 10. https://arxiv.org/pdf/1701.03534.pdf.
dc.relation.referencesen1. Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics), Springer-Verlag Berlin, Heidelberg, 2006.
dc.relation.referencesen2. Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning, The MIT Press, 2016.
dc.relation.referencesen3. L. Deng and D. Yu. Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing, 2013, vol. 7, nos. 3–4, pp. 197–387.
dc.relation.referencesen4. Mostapha Zbakh, Mohammed Essaaidi, Pierre Manneback, Chunming Rong, Cloud Computing and Big Data: Technologies, Applications and Security, Springer International Publishing, 2019.
dc.relation.referencesen5. Gerassimos Barlas, Multicore and GPU Programming: An Integrated Approach, Morgan Kaufmann Publishers Inc., San Francisco, CA, 2014.
dc.relation.referencesen6. Seonwoo Min, Byunghan Lee, Sungroh Yoon; Deep learning in bioinformatics, Briefings in Bioinformatics, Volume 18, Issue 5, 1 September 2017, pp. 851–869.
dc.relation.referencesen7. NVIDIA GPU Computing. https://www.nvidia.com/object/doc_gpu_compute.html
dc.relation.referencesen8. CUDA Toolkit Documentation. https://docs.nvidia.com/cuda/
dc.relation.referencesen9. cuDNN Developer Guide. https://docs.nvidia.com/deeplearning/ sdk/cudnn-developer-guide/index.html
dc.relation.referencesen10. Amazon EC2 F1 Instances. https://aws.amazon.com/ec2/ instance-types/f1/
dc.relation.referencesen11. Cloud TPU documentation. https://cloud.google.com/tpu/docs/
dc.relation.referencesen12. Accelerating DNNs with Xilinx Alveo Accelerator Cards. https://www.xilinx.com/support/documentation/ white_papers/wp504-accel-dnns.pdf
dc.relation.referencesen13. An OpenCLTM Deep Learning Accelerator on Arria 10. https://arxiv.org/pdf/1701.03534.pdf.
dc.citation.journalTitleКомп’ютерні системи та мережі
dc.citation.volume1
dc.citation.issue1
dc.citation.spage97
dc.citation.epage102
dc.coverage.placenameЛьвів
dc.coverage.placenameLviv
dc.subject.udc004.8
Appears in Collections:Комп'ютерні системи та мережі. – 2019. – Том 1, № 1

Files in This Item:
File Description SizeFormat 
2019v1n1_Khoma_Y-Comparative_analysis_of_the_97-102.pdf706.59 kBAdobe PDFView/Open
2019v1n1_Khoma_Y-Comparative_analysis_of_the_97-102__COVER.png385.62 kBimage/pngView/Open
Show simple item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.