Performance comparison of deep learning models in Turkish text generation

Yükleniyor...
Küçük Resim

Tarih

2023

Dergi Başlığı

Dergi ISSN

Cilt Başlığı

Yayıncı

İzmir Bakırçay Üniversitesi Lisansüstü Eğitim Enstitüsü

Erişim Hakkı

info:eu-repo/semantics/openAccess

Özet

Metin Üretimi, otomatik olarak insan yazısına benzeyen yeni metin oluşturmak için genellikle yapay zeka ve sinir ağları, transformers ve üretken derin öğrenme modelleri (GAN) gibi teknikler tarafından desteklenen algoritmaları kullanan Doğal Dil İşleme'de (NLP) bir çalışma alanıdır. Bu çalışmada, Uzun Kısa Süreli Bellek (LSTM), Transformer tabanlı modeller ve dil modellerindeki son gelişmeler ile GPT dahil olmak üzere çeşitli son teknoloji derin öğrenme modellerinin performansını değerlendiriyoruz. Kapsamlı değerlendirmemiz, oluşturulan metnin akıcılığını, tutarlılığını ve genel kalitesini belirlemek için perplexity, BLEU puanı gibi birden çok temel metriği kapsar. Kapsamlı bir Türkçe metin veri setlerini düzenleyerek ve ön işleme tabi tutarak, değerlendirmenin Türk dilinin karmaşıklığını ve özelliklerini doğru bir şekilde yansıtan veriler üzerinde yapılmasını sağlayarak benzersiz bir katkı sağlıyoruz. Sonuçlarımız, her bir derin öğrenme modelinin göreli güçlü ve zayıf yönlerini aydınlatarak, bunların Türkçe metin üretimine uygulanabilirliğine dair içgörüler sağlıyor. Bu çalışma, yalnızca titiz bir karşılaştırmalı çalışma sunmakla kalmıyor, aynı zamanda Türkçe metin üretimi için derin öğrenme modellerinin performansını artırmaya yönelik daha fazla araştırma yapılmasının önünü açmayı umuyor. Çalışmamız, NLP'nin sürekli gelişen çalışmalarına katkıda bulunmayı ve özellikle mevcut NLP araştırmalarında Türk dilinin temsilini ele almayı amaçlamaktadır.
Text Generation is a field of study in Natural Language Processing (NLP) that uses algorithms, often powered by artificial intelligence and machine learning techniques like neural networks, transformers, and generative deep learning models, to generate new text that is automatically similar to human writing. In this study, we evaluate the performance of various state-of-the-art deep learning models, including Long Short-Term Memory (LSTM), Transformer-based models, and the recent development in language models, GPT. Our comprehensive evaluation spans across multiple key metrics such as perplexity, BLEU score to determine the fluency, coherence, and overall quality of generated text. We provide a unique contribution by curating and preprocessing a substantial Turkish text dataset, ensuring that the evaluation is conducted on data that accurately reflects the complexity and characteristics of the Turkish language. Our results illuminate the relative strengths and weaknesses of each deep learning model, providing insights into their applicability to Turkish text generation. This work not only offers a rigorous comparative study but also hopes to pave the way for further research in enhancing the performance of deep learning models for Turkish text generation. Our study is aimed at contributing to the ever-evolving landscape of NLP, and particularly, to address the under-representation of the Turkish language in current NLP research.

Açıklama

Anahtar Kelimeler

Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol, Computer Engineering and Computer Science and Control

Künye

Koleksiyon