Zobrazit minimální záznam

dc.contributor.advisorPlatoš, Jan
dc.contributor.authorProkop, Vojtěch
dc.date.accessioned2022-09-01T07:20:32Z
dc.date.available2022-09-01T07:20:32Z
dc.date.issued2022
dc.identifier.otherOSD002
dc.identifier.urihttp://hdl.handle.net/10084/147324
dc.description.abstractDiplomová práce se zabývá popisem jednotlivých bloků procesu zpracování přirozeného jazyka od přípravy textových dat, předzpracování, až po návrh modelů, které řeší klasifikační problém nad jazykovým korpusem. V teoretické části jsou detailněji popsány modely od klasických přístupů strojového učení, až po hojně využívanou architekturu Transformer. Právě modely, které jsou založeny na této architektuře, jejich struktura a výkonost je hlavním doménou této diplomové práce. V praktické části jsou provedeny experimenty nad různými přístupy a následně srovnány jejich výsledky. Jsou použity 3 přístupy, vektorizace textu a následné využití klasických modelů, využití architektur neuronových sítí až po architekturu Transformer a v poslední řadě využití derivátu BERT modelu ve spojení s hlubokou dopřednou sítí. Nad všemi těmito modely byla zkoumána kvalita přesnosti u problému autorství, kde k neznámému textu model odhadoval s určitou přesností možného autora.cs
dc.description.abstractThe thesis deals with the description of the different blocks of the natural language processing process from the preparation of text data, pre-processing, to the design of models that solve the classification problem over the language corpus. In the theoretical part, models ranging from classical machine learning approaches to the widely used Transformer architecture are described in detail. It is the models that are based on this architecture, their structure and performance that is the main domain of this thesis. In the practical part, experiments are performed over the different approaches and then their results are compared. Three approaches are used, text vectorization and the subsequent use of classical models, the use of neural network architectures up to the Transformer architecture and lastly the use of a derivative of the BERT model in conjunction with a deep forward network. Over all of these models, the quality of accuracy was investigated for the authorship problem, where, given an unknown text, the model estimated a possible author with some confidence.en
dc.format.extent4499552 bytes
dc.format.mimetypeapplication/pdf
dc.language.isocs
dc.publisherVysoká škola báňská – Technická univerzita Ostravacs
dc.subjectzpracování přirozeného jazykacs
dc.subjectneuronové sítěcs
dc.subjecturčení autorstvícs
dc.subjectTransformer architekturacs
dc.subjectBERT modelcs
dc.subjectELECTRAcs
dc.subjectDistilBERTcs
dc.subjectnatural language processingen
dc.subjectartificial neural networksen
dc.subjectauthorship identificationen
dc.subjectTransformer architectureen
dc.subjectBERT modelen
dc.subjectELECTRAen
dc.subjectDistilBERTen
dc.titleZpracování textu pomocí hlubokých neuronových sítícs
dc.title.alternativeText Processing using Neural Networksen
dc.typeDiplomová prácecs
dc.contributor.refereeDvorský, Jiří
dc.date.accepted2022-05-31
dc.thesis.degree-nameIng.
dc.thesis.degree-levelMagisterský studijní programcs
dc.thesis.degree-grantorVysoká škola báňská – Technická univerzita Ostrava. Fakulta elektrotechniky a informatikycs
dc.description.department460 - Katedra informatikycs
dc.thesis.degree-programInformační a komunikační technologiecs
dc.thesis.degree-branchInformatika a výpočetní technikacs
dc.description.resultvýborněcs
dc.identifier.senderS2724
dc.identifier.thesisPRO0255_FEI_N2647_2612T025_2022
dc.rights.accessopenAccess


Soubory tohoto záznamu

Tento záznam se objevuje v následujících kolekcích

Zobrazit minimální záznam