안녕하세요!요즘 매주 토요일마다 로또 번호 보면서 "나도 한 번쯤은 되지 않을까?" 생각해본 적, 있으시죠?저는 그 호기심을 조금 더 진지하게 풀어보고 싶어서, AI가 로또 번호를 예측해보는 실험을 시작했어요. 그리고 이걸 단순한 연구로 끝내지 않고, 앱으로 만들어서 여러분과 함께 즐길 수 있도록 준비 중입니다 🎯 🤖 어떤 AI가 잘 맞출까?로또는 정말 예측이 어려운 게임이에요.그래서 저는 단순한 통계 말고 AI 강화학습으로 접근해보기로 했습니다. 현재 실험 중인 대표적인 알고리즘은 다음과 같아요:PPO (Proximal Policy Optimization)→ 안정적이고, 성능이 가장 꾸준하게 좋아요 👍DQN (Deep Q-Network)→ 전략적으로 학습하지만 초기 불안정성이 좀 있었어요A2C ..
블로그를 시작하고 애드센스를 연결했다.심사를 신청한지 몇주가 지나도 결과가 나오지 않다가 오늘 확인해 보니 '리젝' 😰 그런데 문제는 무엇 때문에 리젝이 되었는지 판단하지 못하겠다는 거다. 🤔🥺그리고, "정책 위반이 발견되었습니다."라는 의견에 문의를 할 수 있는 곳이 보이지 않는다. 😱😡 어떻게 해야하지 고민하다가 구글링이🤗 방법뿐이라 판단해 찾아보았지만 무엇 때문인지 알수가 없었다. 😥자의적인 해석으로 수정하는 수밖에 없다는 결론에... 복제된 콘텐츠가 있는 화면에 Google 게재 광고 다른 사이트의 콘텐츠를 복붙해서 사용했다는 말인가? 싶었지만, 그런적이 없기에..그럼 다른 시각으로 "복제된 콘텐츠가 있는 화면..."을 해석해야 했다.https://adsense.googleblog.c..
지난 글에서는 PPO, DQN 같은 강화학습 알고리즘을 활용해 로또 번호 예측 실험을 진행했지만, 아직 "확실한 전략"을 발견하진 못했습니다.그래서 이번에는 A2C(Advantage Actor Critic) 알고리즘을 실험에 투입해 보았습니다.이번엔 과연 AI가 한 단계 더 진화한 모습을 보여줄 수 있었을까요?🧪 실험 환경은 동일하게 유지!이번 실험도 지난 실험과 마찬가지로 다음과 같은 환경을 기반으로 진행했습니다:환경: 실제 로또 회차 데이터 (번호, 빈도 등)행동: 1~45번 중 6개의 번호 선택보상: 선택한 번호와 실제 당첨 번호의 일치도에 따라 점수 부여 보상 체계는 다음과 같습니다:맞춘 개수보상 점수6개 (1등)+10005개+2004개+503개+102개+31개+10개-1 이러한 보상 체계 덕분..
지난 실험에서는 PPO(Proximal Policy Optimization) 에이전트를 활용해 AI 강화학습 기반 로또 번호 예측을 시도했습니다. 수십만 번의 학습을 반복하며 AI가 조금씩 당첨에 가까운 번호를 고르도록 유도했죠.이번에는 또 다른 방식의 강화학습 알고리즘, DQN(Deep Q-Network) 을 도입해 같은 문제에 도전해보았습니다. 과연 어떤 결과가 나왔을까요? 🧠 DQN은 어떤 방식인가요?강화학습 알고리즘은 크게 두 가지로 나뉩니다.PPO: 정책 기반(policy-based) 방식으로, 확률을 바탕으로 행동을 선택합니다.DQN: 가치 기반(value-based) 방식으로, 각 행동의 예상 보상(Q-value)을 계산해 가장 좋은 선택을 합니다.즉, DQN은 "가능한 행동 중 보상이 가..
AI가 로또 번호를 예측할 수 있을까요?강화학습이라는 기술을 활용해, 이 흥미로운 질문에 답을 찾아보기 위한 실험을 진행했습니다.이번 글에서는 복잡한 수식이나 이론 없이, AI가 실제로 어떻게 학습하고 어떤 결과를 도출했는지 설명드리겠습니다.🚀 실험에 사용된 방법이번 실험의 핵심은 강화학습(🤖 Reinforcement Learning) 입니다.그중에서도 'PPO(Proximal Policy Optimization)'라는 알고리즘을 중심으로 진행했습니다.AI가 로또 환경에서 수십만 번의 시뮬레이션을 통해 어떻게 학습하는지를 관찰하는 방식입니다.학습 환경 구성:환경: 과거 로또 회차 데이터행동: 1~45 중 6개 번호 선택보상: 맞춘 번호 개수에 따라 점수 부여맞춘 번호 수보상 점수1개+12개+33개 (..