- 온코소프트-아우라케어 파트너십 체결 및 ‘OncoVET’ 출시
- 온코소프트-과학기술혁신펀드 IR 참가
- JCERG 2026 참가 - OncoStudio 일본 임상 적용 사례 공유
- RSS 2026 참가 - LLM 기반 타겟 컨투어링 연구 발표
- [다가오는 행사]
제71회 한국의학물리학회 춘계학술대회 (예정) ITEM 2026 참가 (예정) 2026년 대한방사선치료학회 춘계학술대회 (예정)
- [Column] News in RadOnc
|
|
|
❶ 온코소프트-아우라케어 전략적 파트너십 체결 및 ‘OncoVET’ 출시 |
|
|
온코소프트는 수의 방사선 치료기 국산화 선도 기업인 아우라케어와 전략적 파트너십을 체결하고, 수의 방사선 치료 계획용 AI 자동 컨투어링 시스템 ‘OncoVET’을 공식 출시했습니다.
OncoVET은 온코소프트의 AI 자동 컨투어링 기술을 기반으로 동물 환자의 장기 및 병변을 자동으로 분할하는 솔루션입니다. 이를 통해 기존 수작업 대비 정확성과 일관성을 높이고, 처리 속도를 개선할 수 있습니다.
이러한 기술의 기반이 되는 OncoStudio는 방사선종양학 분야에서 200여 개 이상의 장기 및 Clinical Target Volume을 지원하며 다양한 임상 적용 사례를 확보해 왔으며, OncoVET은 이를 바탕으로 수의학 데이터를 반영해 개발된 제품입니다.
한편 아우라케어는 반려동물용 방사선 치료기 ‘LEP300’을 상용화한 기업으로, 이번 협력을 통해 양사는 장비와 소프트웨어를 통합한 솔루션을 수의 병원에 제공할 수 있는 기반을 마련했습니다. 양사는 국내 시장 확산과 함께 미국을 중심으로 한 글로벌 진출도 공동 추진할 계획입니다. |
|
|
❷ 과학기술혁신펀드 IR 참가 및 투자 네트워크 교류 |
|
|
온코소프트는 신한자산운용이 주관한 ‘과학기술 R&D 혁신기업 IR & 매칭 Day’에 참여해 주요 투자사들과의 교류를 진행했습니다.
이번 행사는 국가전략기술 및 기술사업화 기업에 대한 투자를 목적으로 조성된 과학기술혁신펀드의 일환으로, 유망 벤처기업과 자펀드 운용사 간 투자 연계를 지원하기 위해 마련됐습니다.
온코소프트를 포함한 기술 기반 기업들이 참여한 가운데, 각 기업은 핵심 기술과 성장 전략을 소개하고 투자사들과의 상담을 통해 사업 확장 가능성을 논의했습니다. 행사에는 헬리오스PE, 프리미어파트너스, BNH인베스트먼트, 블루포인트파트너스 등 주요 투자 운용사들이 참여했습니다.
이번 참여는 온코소프트의 기술과 사업 방향을 투자자 관점에서 검증받고, 중장기 성장 전략을 구체화하는 계기가 되었습니다.
|
|
|
❶ JCERG 2026 참가 및 OncoStudio 일본 임상 적용 사례 공유 |
|
|
온코소프트는 지난 3월 14일 일본 도쿄에서 개최된 ‘JCERG 2026’에 참가하여, 파트너사 Anzai Medical과 함께 OncoStudio를 전시했습니다. 이번 학회에서는 부스 시연과 스폰서 세미나를 통해 OncoStudio의 임상 적용 사례와 기술적 성과를 상세히 공개했습니다.
야마나시 대학교 네모토 교수는 발표를 통해 10종 이상의 자동 컨투어링 소프트웨어를 비교 평가한 결과를 소개했습니다. 해당 평가에서 OncoStudio는 정확도, 형태 일치도, 처리 속도 등 주요 지표에서 상위권의 성능을 일관되게 유지하며, 실제 임상 환경에서의 높은 신뢰성을 입증했습니다.
이어 도쿄 대학교 노자와 교수는 OncoStudio 도입에 따른 의료 현장의 실질적인 개선 효과를 발표했습니다. 노자와 교수는 자동 컨투어링 도입 후 치료 계획 수립 시간이 크게 단축되었음을 강조하며, 특히 MRI 기반 윤곽 생성 및 CT-MR 정합 기능을 통해 임상 적용 범위가 넓어진 사례를 공유했습니다.
현장 부스에서는 AI 컨투어링 및 AI Agent 기능을 비롯해, 다양한 CT·MR 데이터를 활용한 CT-MR Registration 워크플로우를 시연했습니다. 또한 Space OAR, 4D CT, CT-MR fusion 등 고난도 임상 적용에 대한 논의가 활발히 이루어졌으며, 이를 통해 일본 시장 내 OncoStudio의 임상 활용 사례가 점차 확대되고 있음을 확인했습니다.
|
|
|
❷ RSS 2026 참가-LLM 기반 타겟 컨투어링 연구 발표 |
|
|
온코소프트는 미국 올랜도에서 개최된 RSS 2026에 참가하여, 대규모 언어 모델(LLM)을 활용한 Target Contouring 기술에 대한 혁신적인 연구 결과를 발표했습니다. 이번 발표에서 김진성 대표는 방사선 치료 계획의 핵심인 종양 타겟 영역에 대한 AI 적용 가능성을 중심으로 최신 연구 내용을 공유했습니다.
기존의 AI 기반 Segmentation 기술이 주로 해부학적 구조가 일정한 정상 장기(OAR) 추출에 집중해 왔다면, 이번 연구는 환자별 변동성이 극심해 자동화가 까다로웠던 종양 타겟 영역까지 AI의 적용 범위를 성공적으로 확장했다는 점에서 큰 의미가 있습니다. 특히 영상 데이터뿐만 아니라 전자의무기록(EMR) 및 임상 텍스트 정보를 통합적으로 활용하는 멀티모달 AI 접근 방식을 통해, 의료진의 의사결정 과정을 모사하며 더욱 정교한 타겟 정의가 가능함을 입증했습니다.
또한 기관별로 상이한 치료 전략과 의료진의 개별적인 컨투어링 스타일을 학습하여 반영할 수 있는 MoME(Mixture of Multicenter Experts) 기술을 선보이며, 실제 임상 현장의 다양성을 포괄하는 개인화된 맞춤형 솔루션의 가능성을 제시했습니다. 나아가 임상 가이드라인을 스스로 해석하여 타겟 윤곽을 생성하는 AI Agent 개념과 방사선 치료 전 과정의 자동화를 구현할 수 있는 새로운 접근 방식도 함께 소개되었습니다.
이번 발표는 OncoStudio가 단순한 자동화 도구를 넘어, 고도의 전문성을 지원하고 개인화된 방사선 치료 계획을 가능하게 하는 지능형 AI 플랫폼으로 진화하고 있음을 보여주는 사례입니다.
|
|
|
❶ 제71회 한국의학물리학회 춘계학술대회 (예정) |
|
|
- 일시: 2026년 4월 10일 (금) - 11일 (토)
- 장소: SETEC 컨벤션센터
- 개최방식: 오프라인
|
|
|
📍초록접수 및 사전등록 일정 안내
- 초록 접수 기한: 2026년 3월 20일 (금)
- 심사 결과 안내: 2026년 3월 30일 (월)
- 사전 등록 기한: 2026년 3월 31일 (화)
|
|
|
❸ 2026년 대한방사선치료학회 춘계학술대회 (예정)
|
|
|
- 일시: 2026년 4월 25일 (토) 13:00~17:00
- 장소: 강릉아산병원 대강당
|
|
|
✅ LLM은 누구에게나 좋은 도구일까?
얼마 전, 가족 중 한 명이 아프기 시작했습니다. 특별한 이유 없이 아픈 기간이 일주일을 넘어가면서, LLM에 증상들을 하나씩 입력하며 대화를 나눠보기 시작했습니다. 그런데 매우 드문 질환이 거의 매번 첫 번째 감별 진단으로 제시되었습니다. 처음에는 설마 싶었지만, 결국 그 진단이 맞았습니다. 이후에도 LLM은 여러 차례 도움이 되었습니다. 최신 치료 가이드라인을 정리해 주었고, 주치의와 병원을 변경할 때에도 도움을 주었으며, 합병증 징후가 나타났을 때 빠르게 대처할 수 있게 해주었습니다. 든든한 조력자를 곁에 두고 있다는 생각에 내내 감사했습니다.
그런데 진료실로 돌아오면 다른 풍경이 펼쳐집니다.
의료진들이 모두 어려움을 겪는 젊은 환자가 한 명 있습니다. LLM이 주는 정보를 맹신하며 의료진의 의견을 번번이 반박하고, AI가 제시하는 치료 방향만을 고집합니다. 의료진과의 신뢰는 이미 무너진 지 오래입니다.
그리고 최근 원내 컨퍼런스에 참석해 보면, LLM으로 그럴듯하게 정리된 발표 슬라이드를 보여주며 대본을 읽는 경우가 있습니다. 그러나 정작 내용을 질문해 보면 충분히 이해하지 못한 경우가 적지 않았습니다.
같은 도구를 쓰는데 왜 이렇게 결과가 다를까요? 이 질문에 딱 맞는 논문이 올해 2월 Nature Medicine에 발표되었습니다.
|
|
|
✅ 연구 설계
Oxford Internet Institute 연구팀은 LLM의 의학적 신뢰성을 일반인 대상 무작위 대조 연구(RCT)로 검증했습니다. Benchmark 시험이 아니라, 실제 사람이 LLM과 대화하며 의학적 판단을 내리는 상황을 만든 것입니다.
3명의 의사가 합의하여 10가지 의학 시나리오를 개발했고, 각 시나리오에 대한 gold standard 진단 및 처치 방향(disposition)을 정해두었습니다. Disposition은 구급차 호출부터 자가 처치까지 5단계로 나뉩니다.
영국 성인 1,298명을 다음의 네 그룹에 무작위 배정했습니다.
- GPT-4o 그룹 (n=340)
- Llama 3 그룹 (n=343)
- Command R+ 그룹 (n=314): 인터넷 검색을 augment하는 모델
- 대조군 (n=301): LLM 없이 평소처럼 인터넷 검색 등 자유롭게 사용
각 참가자는 시나리오를 보고 LLM과 자유롭게 대화한 뒤, “어떤 의료 서비스를 이용하겠는가”와 “어떤 질환을 의심하는가”를 답했습니다. |
|
|
✅ LLM은 혼자 잘 한다, 사람과 함께하면 오히려 못 한다
이 논문의 결과를 한 줄로 요약하면 이것입니다. “LLM은 시험을 잘 보는데, 사람이 쓰면 그 성능이 발휘되지 않는다.”
LLM이 단독으로 시나리오를 처리했을 때의 성능은 인상적이었습니다. 관련 질환을 맞힌 비율이 94.9%, 적절한 disposition을 맞힌 비율이 56.3%였습니다. 그런데 실제 사람이 LLM을 이용했을 때는 관련 질환 정답률이 34.5% 이하, disposition 정답률이 44.2% 이하로 뚝 떨어졌습니다. 더 충격적인 것은, LLM을 사용한 세 그룹 모두 대조군보다 질환을 더 못 맞혔다는 점입니다. LLM을 쓴 사람들이 그냥 인터넷을 검색한 사람들보다 성적이 낮았습니다.
|
|
|
✅ 왜 이런 일이 생길까?
연구팀은 30개의 실제 대화 transcript를 직접 분석했습니다. 실패의 원인은 크게 세 가지로 압축됩니다.
-
첫째, 분석 케이스의 절반 이상에서 참가자들은 핵심 증상을 빠뜨린 채 대화를 시작했습니다. 실제 진료에서 의사가 병력 청취를 체계적으로 하듯, LLM도 정확한 정보를 받아야 정확한 답을 줄 수 있습니다. 일반인은 이 과정에 익숙하지 않습니다.
-
둘째, LLM이 적절한 정보를 제공해도 사용자가 이를 따르지 않는 경우가 많습니다. 대화 중 LLM이 관련 질환을 언급한 비율은 65~73%였지만, 참가자의 최종 답변에 그 내용이 반영된 비율은 그보다 훨씬 낮았습니다. 이미 자신의 결론을 갖고 있는 경우 LLM의 권고를 흘려버리는 것입니다. 앞서 말씀드린 환자처럼, 아이러니하게도 그 환자는 LLM을 맹신하는 것처럼 보이지만, 실제로는 자신이 듣고 싶은 답변만 선택적으로 받아들이는 것에 가깝습니다.
-
셋째, LLM이 잘못된 정보를 추가하기도 합니다. 동일한 증상을 묘사한 두 사용자에게 LLM이 정반대의 조언을 준 사례도 확인되었습니다. 사용자가 입력하는 방식의 미묘한 차이가 LLM의 답변을 완전히 뒤바꿀 수 있다는 점은 특히 위험합니다.
|
|
|
✅ Benchmark는 이 실패를 예측하지 못한다
연구팀은 MedQA(의학 면허 시험 기반 benchmark)에서의 LLM 점수와 실제 인터랙티브 실험 결과 사이의 상관관계를 분석했습니다. 결과는 놀라웠습니다. 두 지표 사이에는 유의미한 상관관계가 없었습니다. 즉, 시험을 잘 본다고 실제로 잘 쓰이는 것이 아닌 것입니다.
더 흥미로웠던 시도는 시뮬레이션 환자 실험입니다. 실제 사람 대신 LLM이 환자 역할을 해서, LLM끼리 대화하게 하는 실험도 병행했습니다. 그러나 이 시뮬레이션 결과도 실제 사람이 참여했을 때의 결과를 예측하지 못했습니다. 시뮬레이션 환자는 실제 사람보다 정보를 훨씬 체계적이고 일관되게 제공했기 때문입니다. 실제 인간이 얼마나 모호하게, 감정적으로, 불완전하게 증상을 설명하는지를 AI는 재현하지 못했습니다.
|
|
|
✅ 그렇다면 LLM은 의료에 도움이 되는가, 안 되는가?
저는 이 논문을 읽으면서 결국 답이 “사람에 따라 다르다”는 것임을 다시 한번 확인했습니다.
가족이 아팠을 때 LLM이 도움이 된 것은, 제가 의학적 배경 지식을 갖고 있었기 때문입니다. 그동안 많은 논문을 읽고 학회에 참석하고, peer-reviewed 논문을 써보고 리뷰도 하면서 쌓아온 비판적 사고의 틀이 있었기에, LLM의 답변을 그대로 수용하지 않고 걸러내며 활용할 수 있었습니다. 그리고 증상 정보를 체계적으로 제공하는 방법도 알고 있었습니다. 반면 의학적 배경이 없는 일반인이나, 아직 그 틀이 갖춰지지 않은 사회초년생 의사들에게는 LLM이 오히려 오류를 심어줄 수 있습니다.
이 논문의 결론도 같은 방향을 가리킵니다. LLM의 문제는 지식이 부족해서가 아니라, 사람이 그 지식을 제대로 끌어내고 활용하지 못해서입니다. 의학적 배경지식, 비판적 사고, 올바른 질문을 던지는 능력이 갖춰진 사용자와 그렇지 않은 사용자 사이에서 같은 LLM은 전혀 다르게 작동합니다. 저자들도 이런 맥락에서 강조합니다. “의료 AI를 공개 배포하기 전에 반드시 실제 사람을 대상으로 한 safety testing을 거쳐야 하며, benchmark와 시뮬레이션만으로는 충분하지 않다”고요. 저는 여기서 한 발 더 나아가, 도구의 성능만큼이나 사용자 교육과 리터러시가 함께 고려되어 설계되어야 한다고 생각합니다. 아무리 좋은 auto-contouring 시스템도 숙련된 의사가 결과를 비판적으로 검토하지 않으면 위험하듯이, LLM도 올바른 사용법을 갖춘 사람의 손에서만 제대로 작동합니다.
온코소프트가 개발하는 소프트웨어들도 같은 질문 앞에 놓여 있습니다. 누가, 어떤 맥락에서, 어떻게 사용할지를 설계 단계부터 고민하는 것, 그것이 결국 좋은 AI 의료 도구와 그렇지 않은 도구를 가르는 차이가 될 것입니다.
(이 글은 저자가 초안을 작성한 후 Claude AI의 도움을 받아 보완하였으며, 최종적으로 저자가 검토·수정하였습니다.)
|
|
|
|