Advanced search


Search results        Search results      Copy URL to E-Mail


Exploring the utility of ChatGPT as a learning tool in osteopathic medical education

Journal: International Journal of Osteopathic Medicine Date: 2026/03, (online 2026/03/04):. doi: Subito , type of study: observational study

Full text    (https://www.journalofosteopathicmedicine.com/article/S1746-0689(26)00008-8/abstract)

Keywords:

AI [1923]
artificial intelligence [11]
ChatGPT [6]
exams [33]
learning [103]
observational study [228]
osteopathic medicine [2056]
osteopathic principles [95]
USA [1709]

Abstract:

Artificial intelligence (AI) is increasingly being integrated into medical education. While ChatGPT (Chat Generative Pre-Trained Transformer) has demonstrated the ability to pass standardized exams such as the United States Medical Licensing Examinations (USMLE) Steps 1-3 and outperform some medical students on clinical reasoning questions, its utility for osteopathic medical licensing remains unexplored. This study evaluated ChatGPT-3.5?s performance on 113 multiple-choice questions sourced from Comprehensive Osteopathic Medical Licensing Examination COMLEX-USA Level 1 (COMLEX-L1) practice materials and two physiology textbooks: Ganong's Review of Medical Physiology, 26e, and Case Files: Physiology, 2e. Questions involving images were excluded. ChatGPT was prompted to select and justify answers, which were then evaluated for accuracy. Results showed that ChatGPT correctly answered 56% of COMLEX-L1 questions, including only 33.33% in the Osteopathic Principles and Practice (OPP) category. In contrast, it achieved 82.35% accuracy on questions from Ganong?s and 58.82% on Case Files, with a combined textbook accuracy of 77.65%. These findings indicate that while ChatGPT can effectively support physiology learning, it currently lacks the precision required for COMLEX-L1 preparation. Future studies should explore model refinement, command optimization, and enhanced integration with osteopathic-specific resources to better support osteopathic medical students preparing for board examinations.

Abstract German language:
(translated by Ostlib): Künstliche Intelligenz (KI) wird zunehmend in die medizinische Ausbildung integriert. Während ChatGPT (Chat Generative Pre-Trained Transformer) gezeigt hat, dass es standardisierte Prüfungen wie die United States Medical Licensing Examinations (USMLE) Steps 1–3 bestehen und einige Medizinstudenten bei Fragen zum klinischen Denken übertreffen kann, ist sein Nutzen für die Zulassungsprüfung in der Osteopathie bislang noch nicht untersucht worden. Diese Studie bewertete die Leistung von ChatGPT-3.5 bei 113 Multiple-Choice-Fragen, die aus Übungsmaterialien der Comprehensive Osteopathic Medical Licensing Examination COMLEX-USA Level 1 (COMLEX-L1) sowie aus zwei Physiologie-Lehrbüchern stammten: Ganong's Review of Medical Physiology, 26. Auflage, und Case Files: Physiology, 2. Auflage. Fragen mit Bildern wurden ausgeschlossen. ChatGPT wurde aufgefordert, Antworten auszuwählen und zu begründen, die anschließend auf ihre Richtigkeit hin bewertet wurden. Die Ergebnisse zeigten, dass ChatGPT 56 % der COMLEX-L1-Fragen korrekt beantwortete, darunter nur 33,33 % in der Kategorie „Osteopathic Principles and Practice“ (OPP). Im Gegensatz dazu erreichte es eine Genauigkeit von 82,35 % bei Fragen aus Ganong’s und 58,82 % bei Case Files, was einer kombinierten Genauigkeit bei den Lehrbüchern von 77,65 % entspricht. Diese Ergebnisse deuten darauf hin, dass ChatGPT zwar das Lernen der Physiologie effektiv unterstützen kann, es derzeit jedoch an der für die Vorbereitung auf COMLEX-L1 erforderlichen Präzision mangelt. Zukünftige Studien sollten sich mit der Verfeinerung des Modells, der Optimierung der Befehle und einer verbesserten Integration mit osteopathiespezifischen Ressourcen befassen, um Medizinstudenten der Osteopathie bei der Vorbereitung auf die Facharztprüfungen besser zu unterstützen.


Search results      Copy URL to E-Mail

 
 
 






  • ImpressumLegal noticeDatenschutz


ostlib.de/data_pbsnxargdukztewcmjhy



Supported by

OSTLIB recommends