Distillation of Large Language Models for Text Simplification
DOI:
https://doi.org/10.31713/MCIT.2023.071Анотація
This work presents a comprehensive methodology for harnessing the capabilities of Large Language Models to address specific Natural Language Processing tasks, with a focus on Text Simplification. While LLMs have demonstrated their prowess in tackling a wide range of NLP challenges, their demanding computational requirements can render them impractical for real-time online inference. In response to this limitation, we suggest the concept of text distillation, a technique aimed at effectively transferring the knowledge stored within LLMs to more compact and computationally efficient neural networks.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2023 Моделювання, керування та інформаційні технології

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Всі матеріали поширюються на умовах ліцензії Creative Commons Attribution 4.0 International License, яка дозволяє іншим розповсюджувати роботу з визнанням авторства цієї роботи і першої публікації в цьому журналі.