
Claude가 글 쓰고, 발행까지 자동화했습니다. 한 달 결과를 공개합니다.
처음 이 실험을 시작했을 때 주변 반응은 둘로 나뉘었습니다. "그게 된다고?" 와 "어차피 구글이 AI 글 다 걸러낸다던데". 저도 반신반의였습니다. 그래서 그냥 해봤습니다. 30일, 글 42편, 데이터는 거짓말을 하지 않으니까요.
실험 설계 — 어떤 도구로, 어떻게 자동화했나
자동화 스택은 단순하게 구성했습니다. 복잡하면 유지보수가 안 되고, 어디서 문제가 생겼는지 파악도 어렵습니다.
사용한 도구
- Claude (Anthropic) — 글 초안 생성 및 SEO 최적화
- viruagent-cli — 티스토리 자동 발행 CLI 도구. 로그인부터 이미지 업로드, 발행까지 한 번에 처리
- GitHub Actions — 스케줄 트리거 (매일 오전 7시, 오후 2시)
- Google Search Console + Analytics — 결과 측정
핵심은 viruagent-cli였습니다. Claude가 생성한 HTML을 받아서 티스토리에 직접 발행하는 파이프라인인데, 커맨드 하나로 로그인 세션 관리와 발행을 모두 처리합니다. Playwright 기반이라 실제 브라우저처럼 동작해서 차단 이슈가 생각보다 적었습니다.
글 생성 프로세스
키워드 리스트를 CSV로 준비해두고, GitHub Actions가 매일 2개 키워드를 뽑아 Claude에게 프롬프트를 던집니다. 글이 생성되면 viruagent-cli가 자동으로 발행. 사람이 개입하는 단계는 주 1회 키워드 검토뿐이었습니다.
완전 자동화라고 해서 퀄리티 체크를 아예 안 한 건 아닙니다. 발행 후 24시간 내에 결과물을 한 번씩 훑어봤습니다. 사실 오류나 어색한 문장이 나오는 경우가 생각보다 잦았거든요.
1~2주차 결과 — 기대와 현실의 첫 충돌
솔직히 말하면 1주차는 실망스러웠습니다.
1주차 (1~7일)
발행한 글: 14편. 구글 서치콘솔 기준 노출 수 0. 클릭 0. 티스토리 자체 유입만 하루 3~5명 수준. 이건 예상했습니다. 신규 글이 인덱싱되려면 최소 1주일은 걸리니까요.
그런데 문제가 하나 생겼습니다. Claude가 생성한 글 중 3편이 사실 오류를 포함하고 있었습니다. 특정 서비스 요금제 정보를 잘못 기술한 건데, 프롬프트에 "최신 정보를 기반으로 작성"이라고 넣었음에도 불구하고 학습 데이터 기준의 오래된 정보가 나왔습니다. 수동으로 수정하거나 해당 글을 비공개 처리했습니다.
2주차 (8~14일)
발행 누적: 28편. 노출이 조금씩 생기기 시작했습니다.
| 지표 | 1주차 | 2주차 |
|---|---|---|
| 일평균 방문자 | 4명 | 18명 |
| 검색 노출 (GSC) | 12회 | 347회 |
| 클릭수 | 0 | 23 |
| 평균 CTR | — | 6.6% |
CTR 6.6%는 나쁘지 않았지만, 모수 자체가 너무 작아서 의미있는 숫자라고 보기는 어려웠습니다. 그래도 "검색 유입이 아예 없지는 않다"는 걸 확인한 게 2주차의 수확이었습니다.
3~4주차 결과 — 데이터가 움직이기 시작했다
3주차부터 뭔가 달라졌습니다. 체감이 아니라 숫자가 바뀌기 시작했습니다.
3주차 (15~21일) — 첫 번째 변곡점
일평균 방문자가 18명에서 64명으로 뛰었습니다. 특정 글 하나가 네이버 블로그 검색에서 상위 노출되면서 유입이 몰린 결과였습니다. 아이러니하게도 그 글은 Claude가 생성한 초안을 제가 30% 정도 직접 손본 글이었습니다.
여기서 중요한 인사이트 하나를 얻었습니다. AI가 생성한 글 그대로는 검색 상위가 어렵다는 것. 구조와 키워드는 AI가 잘 잡아주지만, 실제 경험에서 나오는 디테일이 빠지면 체류시간이 짧아지고 자연스럽게 순위가 밀립니다.
4주차 (22~30일) — 안정화
전략을 바꿨습니다. 14편 완전 자동화 → 7편 자동화 + 7편 수동 보완. 발행 속도는 절반이 됐지만 체류시간 지표가 눈에 띄게 개선됐습니다.
| 지표 | 3주차 | 4주차 |
|---|---|---|
| 일평균 방문자 | 64명 | 91명 |
| 검색 노출 (GSC) | 4,210회 | 8,740회 |
| 평균 체류시간 | 1분 12초 | 2분 38초 |
| 이탈률 | 84% | 71% |
트래픽 변화 — 구체적 수치 공개
30일 전체를 놓고 보면 이렇습니다.
30일 누적 수치 (Google Analytics + GSC)
- 총 방문자: 2,247명
- 검색 유입: 1,184명 (52.7%)
- 직접 유입: 389명 (17.3%)
- 소셜/기타: 674명 (30%)
- 총 페이지뷰: 3,891회
- 구글 GSC 총 노출: 41,300회
- GSC 총 클릭: 612회
- 평균 CTR: 1.48%
- 평균 게재 순위: 22.4위
실험 시작 전 이 블로그의 일평균 방문자는 7명이었습니다. 30일 기준으로 91명까지 올라왔으니 단순 수치로는 13배 성장. 하지만 절대적인 수치가 여전히 낮다는 건 인정해야 합니다.
주목할 점은 검색 유입 비중입니다. 실험 전에는 검색 유입이 거의 없고 지인 유입이 대부분이었는데, 30일 후에는 검색이 절반을 넘었습니다. 이건 지속 가능한 성장의 씨앗이 심어졌다는 의미입니다.
애드센스 수익 변화 — 솔직하게
가장 궁금해할 부분이라 더 솔직하게 씁니다.
| 기간 | 노출수 | 클릭수 | 수익 (KRW) |
|---|---|---|---|
| 실험 전 30일 | 3,200 | 41 | ₩4,200 |
| 1~2주차 | 4,100 | 58 | ₩5,940 |
| 3~4주차 | 11,700 | 163 | ₩17,800 |
| 30일 합계 | 15,800 | 221 | ₩23,740 |
30일 수익 합계 23,740원. 전달 대비 5.6배 증가이지만, 절대 금액은 여전히 커피 몇 잔 수준입니다. 과장하고 싶지 않습니다. 이 숫자가 "자동화로 월 수백만 원 번다"는 유튜브 썸네일과는 한참 거리가 있다는 걸 직접 경험했습니다.
다만 추세는 분명합니다. 3~4주차의 일평균 수익이 1~2주차의 3.2배입니다. 이 추세가 유지된다면 3개월 후 의미있는 수치가 될 수 있다는 계산은 나옵니다. 아직은 "될 것 같다"는 수준이지, "됐다"는 아닙니다.
30일이 가르쳐준 것들
1. AI 글의 진짜 약점은 '경험'이다
Claude는 구조를 잘 잡고, 키워드 배치도 나쁘지 않습니다. 하지만 "내가 직접 써봤는데 이게 안 됐다"는 1인칭 경험이 없습니다. 독자는 그걸 귀신같이 느낍니다. 체류시간 데이터가 그걸 증명했습니다. 경험 서술이 들어간 글의 평균 체류시간은 3분 14초, 완전 자동화 글은 1분 03초. 3배 차이.
2. 발행량보다 인덱싱 속도가 병목이다
14편을 써도 구글이 인덱싱하는 데 5~10일이 걸립니다. 매일 2편씩 쏟아내봤자 크롤링 버짓이 한정적인 신생 블로그에서는 큰 의미가 없습니다. 차라리 질 높은 글 1편이 낫습니다.
3. viruagent-cli의 실제 가치는 '시간 절약'
발행 자동화 자체는 잘 작동했습니다. 티스토리 로그인 → 글 업로드 → 카테고리 설정 → 발행까지 수동으로 하면 편당 5~10분 걸리는 작업이 커맨드 하나로 끝납니다. 42편 기준으로 절약된 시간은 약 4~6시간. 그 시간을 콘텐츠 검토와 수동 보완에 쓸 수 있었습니다.
4. 자동화는 시작점이지 끝점이 아니다
자동화로 발행 허들이 낮아진 건 맞습니다. 하지만 그게 곧 "알아서 성장한다"는 의미는 아닙니다. 자동화가 없애주는 건 반복 노동입니다. 전략과 판단은 여전히 사람이 해야 합니다.
5. 사실 오류 검증 파이프라인이 반드시 필요하다
제품 스펙, 요금, 날짜 등 팩트가 들어가는 글은 AI 초안을 그대로 발행하면 안 됩니다. 특히 리뷰나 비교글. 잘못된 정보가 포함된 글이 상위 노출되면 오히려 신뢰도를 깎습니다. 검증 단계를 파이프라인에 넣든지, 아니면 해당 카테고리는 수동으로 쓰는 게 맞습니다.
결론 — 당신에게 추천하는가
조건부로 추천합니다.
블로그 자동화가 효과가 있냐는 질문에 "있다"고 답할 수 있습니다. 하지만 "어떤 조건에서"를 빼면 반쪽짜리 답입니다.
- 이미 콘텐츠 방향과 키워드 전략이 잡혀 있는 블로거
- 발행 반복 작업에 시간이 많이 소요되는 상황
- AI 초안을 직접 다듬을 여력이 있는 경우
- "빠른 실험"이 필요한 초기 단계
추천하지 않는 경우
- 완전 자동화로 "손 안 대고 수익"을 기대하는 경우
- 전문성이 핵심인 YMYL 카테고리 (금융, 의료, 법률)
- 브랜드 신뢰도가 중요한 비즈니스 블로그
30일 실험의 결론은 이겁니다. AI 자동화는 블로그를 대신 운영해주는 도구가 아니라, 운영의 속도와 효율을 높여주는 도구입니다. 그 차이를 명확히 인식하고 시작한다면, 기대 이상의 결과를 얻을 수 있습니다.
저는 2개월째 실험을 이어가고 있습니다. 다음 달 결과도 공개할 예정입니다. 궁금한 점은 댓글로 남겨주세요.
이 글은 실제 블로그 운영 데이터를 기반으로 작성되었습니다. 개인 블로그 환경에 따라 결과는 달라질 수 있습니다.
'Viruagent > Dev Log' 카테고리의 다른 글
| CLI 하나로 블로그 5개 플랫폼 동시 발행하기: viruagent-cli 가이드 (0) | 2026.03.27 |
|---|---|
| 개발자 사이드프로젝트로 월 100만원 — 현실적인 방법과 실패담 (0) | 2026.03.23 |
| AI 에이전트로 블로그 자동화하기 — viruagent-cli 완전 분석 (0) | 2026.03.23 |
| AI가 인스타 사진 보고 댓글 쓴다고? 터미널 한 줄로 되는 인스타 자동화 (0) | 2026.03.20 |
| viruagent-cli 스킬 재설계 — gws 패턴으로 4개에서 28개로 (0) | 2026.03.20 |