‘가혹행위에 괴롭다’ 투신 간호사…경찰 ‘태움’ 확인 못했다

‘가혹행위에 괴롭다’ 투신 간호사…경찰 ‘태움’ 확인 못했다

입력 2018-03-19 12:50
수정 2018-03-19 12:51
  • 기사 읽어주기
    다시듣기
  • 글씨 크기 조절
  • 댓글
    0
선배들의 가혹행위, 이른바 ‘태움’에 못 이겨 투신했다는 의혹이 제기된 서울아산병원 간호사 고 박선욱씨에 대해 경찰이 가해 사실을 확인할 수 없었다며 사건을 마무리했다.
태움은 선배 간호사가 신임 간호사를 괴롭히며 가르치는 일컫는 용어로 ‘재가 될 때까지 태운다’는 뜻이다. 일선 간호사들은 태움이 교육을 빙자한 가혹 행위라고 비판한다.

서울 송파경찰서는 설 연휴였던 지난달 15일 투신해 숨진 박씨와 관련해 참고인 조사 등을 벌인 결과 폭행·모욕·가혹행위 등과 관련한 자료를 발견하지 못해 범죄혐의 없이 내사종결 처리하기로 했다고 19일 밝혔다.

경찰은 유족과 남자친구, 동료 간호사 등 17명을 참고인 신분으로 조사하고 박씨의 휴대전화와 노트북을 디지털포렌식했다. 병원 폐쇄회로(CC)TV 영상도 분석했다.

이 과정에서 박씨와 함께 병원에 입사해 같은 곳에서 일하다가 3개월 만에 퇴사한 다른 간호사도 “폭행이나 가혹행위는 없었다”고 진술했다고 경찰은 설명했다.

박씨는 지난달 15일 오전 10시 40분께 송파구의 한 아파트 고층에서 투신해 스스로 목숨을 끊었다.

간호사연대는 이달 24일 오후 6시 서울아산병원 인근 송파구 성내천 입구에서 박씨에 대한 추모집회를 열 계획이다.



온라인뉴스부 iseoul@seoul.co.kr
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
close button
많이 본 뉴스
1 / 3
챗GPT의 성(性)적인 대화 허용...여러분의 생각은 어떤가요?
글로벌 AI 서비스 업체들이 성적인 대화, 성애물 등 ‘19금(禁)’ 콘텐츠를 본격 허용하면서 미성년자 접근 제한, 자살·혐오 방지 등 AI 윤리·규제 논란이 한층 가열되고 있다. 챗GPT 개발사인 오픈AI도 ‘GPT-4o’의 새 버전 출시 계획을 알리며 성인 이용자에게 허용되는 콘텐츠 범위를 확대하겠다고 밝혔다. 19금 대화가 가능해지는 챗GPT에 대한 여러분은 생각은 어떤가요?
1. 찬성한다.
2. 반대한다.
광고삭제
광고삭제
위로