생성형 AI 도구를 사용해 기술 문서를 작성할 때 가장 큰 문제는 잘못된 정보(또는 허위로 작성된 정보)를 가져올 수 있다는 겁니다. 하지만 이런 문제는 AI가 아니라 잘못 작성된 사이트 정보를 참고하거나 누군가 잘못 알려준 정보를 사용할 때도 마찬가지입니다. 어떤 정보를 사용하든 이를 확인하는 책임은 문서 작성자에게 있기 때문에 이걸 윤리적인 문제라고 보는 것은 좀 애매할 듯합니다. 저작권 같은 정보도 마찬가지구요.
테크니컬 라이터가 도구를 사용해 문서를 작성하는 경우에는 그나마 중간에서 이를 확인할 수 있는 여지가 있습니다. 하지만 사용자의 질문에 답해주는 시스템을 만들었다고 생각해 보죠. 이런 경우에는 학습을 통해 고도화를 시킬 수는 있지만 답변의 내용을 하나하나 확인할 수는 없습니다(가능은 하겠지만 사용자 입장에서 질문에 대한 답변이 딜레이 되는 챗봇을 원하지는 않겠죠). 이런 경우에는 심각한 문제가 생길 수 있습니다.
실제로 MDN 같은 경우 이런 문제점 때문에 시스템을 도입했다가 철회하기도 했습니다. 혹 이런 기술을 사용하게 된다면 사용자에게 어떤 문제가 있는지 명확하게 공지가 되어야 합니다. 이건 단지 사용에 도움을 주는 것일 뿐 잘못된 내용이 포함될 수 있다고 명시해야 합니다(Q&A에서 언급하긴 하지만 사용자가 이런 경고 문구를 확인한다고 보장할 수는 없다는 것도 문제입니다. 때문에 메시지를 사용자가 명확하게 인지했는지 확인하는 사용자 테스트 같은 절차가 필요할 수 있습니다).
결론은 좀 극단적이긴 하지만 AI로 인해 세상이 멸망해 버리면 좋은 기술 문서가 무슨 소용이 있냐는 거죠 ^^
* 진행 방식이 인상적입니다. 야외에서 진행을 했구요. 세션 주제가 그래서 그랬는지도 모르겠지만 나쁘지 않은 선택입니다. 다만 하단에 기본으로 나오는 자막은 좀 거슬리네요. 아마 야외라서 목소리 전달이 완벽하지 않을 것이라 생각해서 그런 것인지는 모르겠지만요.
https://youtu.be/SDzP6Xs9WoQ?si=zFYV49aoeEm7jasY