[DACON][1위 수상] 로그 분석을 통한 보안 위험도 예측 AI 경진대회 조금 걱정을 했지만!!! 다행히 Private에 이어서 수상을 하게 되었습니다. 데이터 분석 대회에서 처음 1등을 했습니다. 앞으로도 더 열심히 해야 겠다는 생각이 듭니다. ㅎㅎ 코드 및 상세 내용은 github에 있습니다. https://github.com/hyeonggulim/DACON_LOG_Outlier_dectection/blob/main/README.md 2021. 5. 16. [NLP] Matrix Factorization + logistic Regression with python 이전의 결과물인 Matrix factorization으로 d차원 축소한 벡터들로 logistic regression 문제를 풀었다. 파이썬으로 logistic regression을 구현할 때에는 아래의 블로그를 많이 참고 하였다. wiserloner.tistory.com/780 Logistic Regression 개인정리 (파이썬 코드 구현) // 앞서 배운 로지스틱 회귀를 파이썬 코드로 구현해봅시다. [구현 순서] 1. training 데이터 준비 : slicing 또는 list comprehension 등을 이용하여 입력 x와 정답 t를 numpy 타입으로 분리합니다.(t는 0 또는 1 wiserloner.tistory.com 마지막 결과는 train의 비율에 따라 f1-score의 향상을 나타내는 .. 2021. 4. 29. 머신러닝 딥러닝 관련 뉴스 및 블로그 인공지능 공부의 최신 트렌드을 따라가보자~! 카카오 브레인: www.kakaobrain.com/blog 카카오브레인 인간처럼 생각하고, 행동하는 지능을 통해 인류가 이제까지 풀지 못했던 난제에 도전합니다. www.kakaobrain.com WILL BE UPLOADED 2021. 4. 11. [NLP] Matrix Factorization 구현하기 with 파이썬 추천 시스템의 바탕이 되는 Matrix factorization 이다. 결국 N 차원을 d 차원으로 축소했다가 다시 N 차원으로 만드는 과정이다. 하지만, N차원을 d차원으로 축소 한것이 N 차원을 잘 표현(?)해야한다... PCA(차원 축소) 오토 인코더와 비슷한점 차이점을 알면 좋을 것 같지만,, 차차 알아가보도록 하겠다. 이론적인 부분을 아래의 블로그를 참고했다. yeomko.tistory.com/5 갈아먹는 추천 알고리즘 [3] Matrix Factorization 지난 글 갈아먹는 추천 알고리즘 [1] 추천 알고리즘의 종류 갈아먹는 추천 알고리즘 [2] Collaborative Filtering 들어가며 지난 글에서 Collaborative Filtering에 대하여 자세히 알아보았습니다. 세부.. 2021. 4. 10. [NLP] 파이썬으로 backpropagation 구현하기 (with different hidden layers) Data Load and Split¶ In [1]: import numpy as np data = np.loadtxt("training.txt") test_data = np.loadtxt("test.txt") print(data.shape) #shuffling the data np.random.shuffle(data) #spliting Data train_x = data[:,0:2] train_y = data[:,-1] print("train_x shape:"+str(train_x.shape)) print("train_y shape:"+str(train_y.shape)) val_x = test_data[:,0:2] val_y = test_data[:,-1] print("val_x shape:"+str(v.. 2021. 3. 31. 이전 1 다음