Анализ оценочного задания: обзор зарубежных подходов


Цитировать

Полный текст

Аннотация

Оценочное задание является одним из факторов достижения точной, надежной и валидной оценки. Эффективность оценивания находится в непосредственной зависимости от характеристик задания и его соответствия требованиям. Анализ зарубежных теоретических источников позволил выявить различные аналитические процедуры, используемые исследователями и практиками для выявления отдельных аспектов оценочного задания. Вместе с тем мы обращаем внимание на отсутствие систематизации подходов к анализу. Это сужает возможности выявления качественных параметров оценочного задания, следствием чего становится снижение надежности оценки. Цель исследования – выявить подходы к анализу оценочного задания, предлагаемые зарубежными исследователями, и упорядочить их на основе разграничения направленности анализа. Исследование проводилось путем сплошного поиска теоретических источников в международных наукометрических базах полнотекстовых публикаций на основе ключевых слов. В результате было отобрано 18 публикаций, отражающих разные аналитические процедуры, которые используются для определения качества оценочного задания как дидактической категории. Изучение публикаций позволило выделить интегративный, аутентичный, дидактический, когнитивный, лингвистический подходы и подход, основанный на теории дидактической оценки. Каждый подход отражает специфические параметры, касающиеся непосредственно операций, видов деятельности, характеристик и т. п., необходимых для эффективной организации оценивания. Подходы к анализу задания ориентированы на выявление как внутренних параметров задания (соответствие требованиям реалистичности, ситуативности, проблемности; согласованность с психолого-педагогическими закономерностями организации учебной деятельности; учет языковых характеристик в формулировках задания; соотношение когнитивных операций, необходимых для выполнения задания, с требованиями сложности, доступности, целесообразности и т. п.; соответствие требованиям валидной, надежной и справедливой оценочной деятельности), так и его потенциала в контексте целостного учебного процесса как средства влияния на обучающегося и учебный процесс. Систематизация подходов к оценочному заданию становится фактором разработки практического инструментария, обеспечивающего установление качества оценочного задания для эффективной организации учебного процесса. 

Об авторах

Марина Алексеевна Бодоньи

Кубанский государственный университет, Краснодар

Автор, ответственный за переписку.
Email: m.bodony@mail.ru
ORCID iD: 0000-0002-1182-0587

кандидат педагогических наук, доцент, заведующий кафедрой прикладной лингвистики и новых информационных технологий

Россия

Список литературы

  1. Jonassen D.H., Tessmer M., Hannum W.H. Task Analysis Methods for Instructional Design. New Jersey: Lawrence Erlbaum Associates, 1999. 284 p.
  2. Rieu A., Leuders T., Loibl K. Teachers’ diagnostic judgments on tasks as information processing – The role of pedagogical content knowledge for task diagnosis // Teaching and Teacher Education. 2022. Vol. 111. Article number 103621. doi: 10.1016/j.tate.2021.103621.
  3. Binder K., Krauss S., Hilbert S., Brunner M., Anders Y., Kunter M. Diagnostic skills of mathematics teachers in the COACTIV study // Mathematics Teacher Education. Diagnostic competence of mathematics teachers: Unpacking a complex construct in teacher education and teacher practice. Cham: Springer International Publishing, 2018. Vol. 11. P. 33–53. doi: 10.1007/978-3-319-66327-2_2.
  4. Ostermann A., Leuders T., Nückles M. Improving the judgment of task difficulties: Prospective teachers’ diagnostic competence in the area of functions and graphs // Journal of Mathematics Teacher Education. 2018. Vol. 21. № 6. P. 579–605. doi: 10.1007/s10857-017-9369-z.
  5. Ibarra-Sáiz M.S., Rodríguez-Gómez G., Boud D. The quality of assessment tasks as a determinant of learning // Assessment & Evaluation in Higher Education. 2021. Vol. 46. № 6. P. 943–955. doi: 10.1080/02602938.2020.1828268.
  6. Carless D. Exploring learning-oriented assessment processes // High Education. 2015. Vol. 69. P. 963–976. doi: 10.1007/s10734-014-9816-z.
  7. Raymond J.E., Homer C.S.E., Smith R., Gray J.E. Learning through authentic assessment: An evaluation of a new development in the undergraduate midwifery curriculum // Nurse Education in Practice. 2013. Vol. 13. № 5. P. 471–476. doi: 10.1016/j.nepr.2012.10.006.
  8. Bosco A., Ferns S. Embedding of authentic assessment in work-integrated learning curriculum // Asia-Pacific Journal of Cooperative Education. 2014. Vol. 15. № 4. P. 281–290.
  9. Herrington J.A., Oliver R.G., Reeves T. Patterns of engagement in authentic online learning environments // Australian Journal of Educational Technology. 2002. Vol. 19. № 1. P. 279–286. doi: 10.14742/ajet.1701.
  10. Villarroel V., Bloxham S., Bruna D., Bruna C., Herrera-Seda C. Authentic assessment: creating a blueprint for course design // Assessment & Evaluation in Higher Education. 2017. Vol. 43. № 5. P. 840–854. doi: 10.1080/02602938.2017.1412396.
  11. Berge H., Ramaekers S., Pilot A. The design of authentic tasks that promote higher-order learning // EARLI-SIG Higher Education/IKIT-conference. 2004. URL: https://www.researchgate.net/publication/46650134_The_design_of_authentic_tasks_that_promote_higher-order_learning.
  12. Agustiningsih R., Rahdiyanta D. Implementation of an authentic assessment model to improve the quality of learning assessment // Journal Pendidikan Teknologi dan Kejuruan. 2019. Vol. 25. № 1. P. 103–115. doi: 10.21831/jptk.v25i1.20072.
  13. Brown B.L. Task Analysis Strategies and Practices // Practice Application Brief. Columbus, Ohio: ERIC Clearinghouse on Adult, Career, and Vocational Education. 1997. 4 p. URL: https://archive.org/details/ERIC_ED404571/mode/2up.
  14. Doyle W., Carter K. Academic Tasks in Classrooms // Curriculum Inquiry. 1984. Vol. 14. № 2. P. 129–149. doi: 10.1080/03626784.1984.11075917.
  15. Krause U., Budke A., Maier V. Understanding of Developing and Setting Tasks in Geography Lessons by German and Dutch Student Teachers // Education Sciences. 2021. Vol. 11. № 2. Article number 63. doi: 10.3390/educsci11020063.
  16. Roelofs E. A Framework for Improving the Accessibility of Assessment Tasks // Theoretical and Practical Advances in Computer-based Educational Measurement. Springer: Cham, 2019. P. 21–45. doi: 10.1007/978-3-030-18480-3_2.
  17. Jonassen D.H., Hannum W.H. Analysis of Task Procedures // Journal of instructional development. 1986. Vol. 9. № 2. P. 2–12. doi: 10.1007/BF02905208.
  18. Pallotti G. An Approach to Assessing the Linguistic Difficulty of Tasks // Journal of the European Second Language Association. 2019. Vol. 3. № 1. P. 58–70. doi: 10.22599/jesla.61.
  19. Abedi J., Lord C. The Language Factor in Mathematics // Tests, Applied Measurement in Education. 2001. Vol. 14. № 3. P. 219–234. doi: 10.1207/S15324818AME1403_2.
  20. Wray D., Janan D. Exploring the Readability of Assessment Tasks: The Influence of Text and Reader Factors // Multidisciplinary Journal of Educational Research. 2013. Vol. 3. № 1. P. 69–95. doi: 10.4471/remie.2013.04.
  21. Tomanek D., Talanquer V., Novodvorsky I. What Do Science Teachers Consider When Selecting Formative Assessment Tasks? // Journal of research in science teaching. 2008. Vol. 45. № 10. P. 1113–1130. doi: 10.1002/tea.20247.
  22. Bachman L.F. Some reflections on task-based language performance assessment // Language Testing. 2002. Vol. 19. № 4. P. 453–476. doi: 10.1191/0265532202lt240oa.
  23. Bachman L.F., Palmer A.S. Language testing in practice: designing and developing useful language tests. Oxford: Oxford University Press, 1996. 384 p.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© ,



Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах