본문 바로가기
카테고리 없음

ChatGPT는 기밀 문서나 내부 자료를 요약해도 괜찮은 걸까?

by htip 2023. 3. 23.
반응형

11월에 출시한 챗GPT가 불과 5개월 만에 버전이 업데이트가 되었습니다. 회사에서는 이제 기본 자료등은 ChatGPT를 통해서 요약하고 정리하는 것을 배우라고 지시하는 회사들도 많아졌습니다. 그렇다면, 그러한 자료들이 민감한 자료인데, 요약을 해도 괜찮을까?라는 의심이 들어서 그 부분을 확인해 보았습니다.

 

결론적으로 ChatGPT에 회사 내부 문서를 절대로 올리지 않으셔야 해요.

 

반응형

범용적인 대외적으로 알아도 되는 자료 등은 요약하셔도 문제가 되지 않습니다. 물론 모든 자료를 데이터 베이스해서 이 AI가 정보를 가져가는 것은 절대로 아닙니다. 다만, 이러한 내부의 민감한 자료를 요약한다거나, 자료를 올려서 정보를 획득하는 행위자체가 기밀의 유출이 될 수 있는 가능성은 다분히 있어 보입니다.

 

아래 질문과 답변은 제가 직접 챗GPT에 물어보고 받은 답변입니다. 참고하셔서 회사 업무 중에 편하고자 썼던 AI로 인해서 고통받지 않으셨으면 좋겠습니다.

 

chatgpt-민감한정보-공유-문제
chatgpt-민감한정보-공유-문제

반응형
ChatGPT는 인공지능 챗봇으로, 사용자와의 대화를 위해 입력된 텍스트를 처리합니다. 일반적으로 ChatGPT는 대화 내용을 저장하지 않으며, 사용자의 대화 내용은 인공지능 모델의 메모리에서만 처리됩니다.
그러나 사용자가 ChatGPT를 통해 전송한 정보에 대한 보안 문제는 사용자가 사용하는 인터넷 연결 및 장치에서의 보안 수준에 따라 달라질 수 있습니다. 사용자가 특정 정보를 공유하는 것이 안전하다고 생각되는 경우에도 항상 조심해야 합니다.
또한, ChatGPT는 학습 데이터로부터 정보를 얻기 때문에, 사용자가 공유하는 민감한 정보가 모델 학습에 사용될 수 있다는 점도 고려해야 합니다. 이러한 이유로 사용자가 공유하는 민감한 정보를 최소화하는 것이 좋습니다.

또 한번의 확정적인 질문을 해봤습니다.

반응형

 

chatgpt-민감한정보-공유-자세히-문의
chatgpt-민감한정보-공유-자세히-문의

결국에는 ChatGPT와 같은 인공지능 챗봇은 대답을 생성하는 데 사용되는 모델에만 "저장"된다는 것입니다. 우리가 공유하는 정보가 학습하는 모델에 적용될 경우에는 분명히 타인에게 공유가 될 수 있음을 암시하고 있기 때문입니다. 이러한 부분으로 인해서, 회사에서 활용할 경우에는 보안과 관련하여 미리 상위부서에 허가를 득하고 나서, AI를 활용하시도록 주의하셔야 함을 다시 한번 알려드리겠습니다.

 

반응형

아마도 Chat GPT에 한 번이라도 정보를 얻은 사람은 한 번만 활용하지 않을 겁니다. 업무외에 여가와 인간관계, 건강까지도 다양한 분야를 물어보고 답변을 얻기 원할 것입니다. 이러한 질문을 할 때, 뭔가 개인정보가 유출될 것 같은, 혹은 회사 정보가 타인에게 유출될 것 같은 질문에 대한 답변을 얻고 싶더라도 확실한 보안이 되지 않는다고 생각하신다면, 활용하는 것을 지양하셔야 합니다.

반응형

댓글