동반자살로 세살배기 아들만 죽었다면 엄마는 살인죄?…경찰 고심중

동반자살로 세살배기 아들만 죽었다면 엄마는 살인죄?…경찰 고심중

이성원 기자
입력 2016-04-06 11:29
수정 2016-04-06 11:29
  • 기사 읽어주기
    다시듣기
  • 글씨 크기 조절
  • 댓글
    0
30대 여성과 세살배기 아들이 동반자살을 하다가 아들만 숨지는 사건이 발생했다. 경찰은 이 여성에 대해 살인죄 적용여부를 두고 고민을 거듭하고 있다.

지난달 15일 전북 전주의 한 원룸에서 우울증을 앓고 있던 A(33·여)씨는 아들과 함께 이 세상을 등지려고 했다. A씨 남편은 전에도 자해와 자살기도를 했던 아내가 연락이 닿지 않자 집으로 달려왔지만, 현관문은 연기 냄새만 날뿐 굳게 잠겨 있고 인기척도 없었다.

경찰이 출동해 현관문을 강제로 연 뒤 집 안을 살폈을 때, 안방에 있던 아들은 이미 숨져 있었다. 거실에 바닥에 쓰려져 있던 A씨 역시 의식이 없었다. 병원으로 옮겨진 A씨는 일주일 뒤 의식을 되찾았고 건강을 회복했다. 가족들은 이후 A씨를 정신병원에 입원시켰다.

경찰은 A씨에게 적용할 혐의를 두고 고심하고 있다. A씨가 아들과 함께 자살기도를 했지만, 의사 결정을 할 수 없는 아들만 숨졌기 때문에 원칙적으로는 ‘살인’ 혐의를 적용하는 것이 맞기 때문이다. 그러나 우울증을 앓던 A씨가 이전에도 정신과 치료와 자살기도 전력이 있었고, 가족들의 처벌 의사 여부도 고려해야 할 부분이다.

경찰은 6일 A씨에 대해 피의자 조사를 진행하고 이번 주 안에 어떤 혐의를 적용할지 판단해 구속영장을 신청할 예정이다. 경찰 관계자는 “의사결정을 할 수 없는 아이가 숨졌기 때문에 살인 혐의를 적용하는 것이 맞다. 하지만 안타까운 부분이 있기 때문에 피의자 조사를 마치고 어떤 혐의를 적용할지 판단할 계획이다”고 말했다.

온라인뉴스부 iseoul@seoul.co.kr
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지
close button
많이 본 뉴스
1 / 3
챗GPT의 성(性)적인 대화 허용...여러분의 생각은 어떤가요?
글로벌 AI 서비스 업체들이 성적인 대화, 성애물 등 ‘19금(禁)’ 콘텐츠를 본격 허용하면서 미성년자 접근 제한, 자살·혐오 방지 등 AI 윤리·규제 논란이 한층 가열되고 있다. 챗GPT 개발사인 오픈AI도 ‘GPT-4o’의 새 버전 출시 계획을 알리며 성인 이용자에게 허용되는 콘텐츠 범위를 확대하겠다고 밝혔다. 19금 대화가 가능해지는 챗GPT에 대한 여러분은 생각은 어떤가요?
1. 찬성한다.
2. 반대한다.
광고삭제
광고삭제
위로