Чотири техніки промптингу для аналітичної роботи з навчально-методичними матеріалами

Abstract

Формулювання проблеми. Викладачі дедалі активніше використовують великі мовні моделі (LLM) для вдосконалення навчально-методичних матеріалів (НММ). Проте більшість із них не має формальної підготовки в галузі штучного інтелекту, а тому вдається до безсистемних підходів. Описані у дослідницькій літературі техніки промптингу активують конкретні спроможності LLM і роблять взаємодію з моделлю передбачуваною та керованою. Однак наявні таксономії упорядковують ці техніки за внутрішньою логікою моделі, тоді як діяльність викладача визначається типом текстового завдання. Це зумовлює потребу у цілеспрямованому відборі технік для аналітичної роботи з НММ. Матеріали і методи. Роботу виконано у форматі пошукового дослідження, кінцевим продуктом якого є готовий до практичного використання інструментарій для викладачів. Дослідження складалося з трьох етапів: теоретичного аналізу та синтезу дослідницької літератури; розроблення процедури відбору технік; пілотної апробації. За основу відбору взято таксономію Schulhoff et al. (2025), що охоплює 58 текстуальних технік промптингу. Результати. Сформовано інструментарій із чотирьох технік промптингу – Role Prompting, Plan-and-Solve, Chain of Verification, Self-Refine – упорядкованих за логікою циклу Демінга (Plan→Do→Check→Act). Інструментарій реалізується через уніфіковані промпти-шаблони, адаптовані до чотирьох вимірів аналітичної роботи з НММ: змістового, структурно-логічного, мовно-стилістичного та оцінювального. Інструментарій допускає два режими використання: процедурний – із послідовним застосуванням усіх чотирьох технік, та автономний – із вибором однієї техніки відповідно до поточного завдання. Висновки. Відібрані чотири техніки перетворюють роботу з LLM на зрозумілу послідовність дій і забезпечують викладачам структурований підхід до аналітичної роботи з НММ незалежно від рівня їхньої технічної підготовки. Водночас результати роботи моделі завжди потребують критичного оцінювання людиною.
Formulation of the problem. Teachers are increasingly using large language models (LLMs) to enhance their teaching and learning resources (TLRs). However, most of them have no formal training in artificial intelligence and therefore rely on unsystematic approaches. The prompting techniques described in research literature can activate specific capabilities of LLMs, making interactions more predictable and manageable. Yet most existing taxonomies classify these techniques according to the model’s internal logic, whereas a teacher’s work is typically organized around the type of textual task being addressed. This highlights the need for a more purposeful selection of prompting techniques that support analytical work with teaching and learning resources (TLRs). Materials and methods. The research was conducted as an exploratory study, leading to the development of a practical toolkit for teachers. The study proceeded through three stages: a theoretical analysis and synthesis of the relevant literature, the development of a procedure for selecting appropriate prompting techniques, and pilot testing. The selection was based on the taxonomy by Schulhoff et al. (2025), which includes 58 textual prompting techniques. Results. The study produced a practical toolkit featuring four prompting techniques: Role Prompting, Plan-and-Solve, Chain-of- Verification, and Self-Refine, organized according to the logic of the Deming cycle (Plan → Do → Check → Act). The toolkit is implemented through standardized prompt templates adapted to four dimensions of analytical work with TLRs: content, structural and logical organization, language and style, and evaluation. It can be used in two ways: a procedural mode, in which all four techniques are applied sequentially, and an autonomous mode, in which a teacher selects a single technique based on the specific task at hand. Conclusion. The four selected techniques transform interaction with LLMs into a clear and well-defined set of steps. They provide teachers with a structured approach to analytical work with TLRs, regardless of their level of technical expertise. At the same time, any results generated by the model should always be critically evaluated by the user.

Description

Keywords

великі мовні моделі, техніки промптингу, навчально-методичні матеріали, цикл Демінга (PDCA), Role Prompting, Plan-and-Solve, Chain-of-Verification, Self-Refine, large language models, prompting techniques, teaching and learning resources, Deming cycle (PDCA), Role Prompting, Plan and-Solve, Chain-of-Verification, Self-Refine.

Citation

Чотири техніки промптингу для аналітичної роботи з навчально-методичними матеріалами / Т. Дєордіца, М. Вороніна, Р. Гладушина, О. Єпіфанова, О. Козьменко, В. Толмачов. Фізико-математична освіта. 2026. № 41(2). С. 46-55.