728x90

 

1. DB 설치 확인

 

설치한 mongodb 가 잘 돌아가고 있는지 확인하자.

크롬 창에 localhost:27017 이라고 쳤을 때, 아래와 같은 화면이 나오면 mongoDB가 돌아가고 있는 것입니다.

 

 

2. robo3T

 

robo3T가 필요한 이유 : mongodb는 눈에 보이지 않습니다. 그래픽인터페이스(=GUI)를 제공하지 않는다는 말과 같습니다. 데이터를 저장했는데 눈으로 보이진 않는다는 말. 따라서 DB내부를 살펴보기 위한 프로그램을 따로 설치 → 이것이 바로 robo3T

 

1. robo3T 세팅하기(sparta-local-DB 라는 이름은 임의적인 것으로 아무렇게나 바꿔도 무관하다.)

 

3. DB 개괄

 

데이터 베이스의 종류는 크게 2가지로, RDBMS(SQL)와 NoSQL이 있습니다.

 

RDBMS는 행/열의 생김새가 정해진 엑셀에 데이터를 저장하는 것과 유사합니다. 데이터 50만 개가 적재된 상태에서, 갑자기 중간에 열을 하나 더하기는 어려울 것입니다. 그러나, 정형화되어 있는 만큼, 데이터의 일관성이나 / 분석에 용이할 수 있습니다.

예) MS-SQL, MY-SQL

 

NoSQL은 딕셔너리 형태로 데이터를 저장해두는 DB입니다. 고로 데이터 하나 하나 마다 같은 값들을 가질 필요가 없게 됩니다. 자유로운 형태의 데이터 적재에 유리한 대신, 일관성이 부족할 수 있습니다.

예) MongoDB

 

3. pymongo로 DB조작하기

 

파이썬에서 mongoDB를 조작하기 위해서는 pymongo라는 패키지를 설치해야하며 방법은 앞서 설명한 방법과 동일하다.

 

파이몽고 기본 코드

from pymongo import MongoClient
client = MongoClient('localhost', 27017)
db = client.dbsparta
#코딩시작

 

DB연결하기 & 데이터 넣기

from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.

# MongoDB에서 데이터 모두 보기
all_users = list(db.users.find({}))

# 참고) MongoDB에서 특정 조건의 데이터 모두 보기
same_ages = list(db.users.find({'age':21},{'_id':False}))

print(all_users[0])         # 0번째 결과값을 보기
print(all_users[0]['name']) # 0번째 결과값의 'name'을 보기

for user in all_users:      # 반복문을 돌며 모든 결과값을 보기
    print(user)
    
# 저장 - 예시
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)

# 한 개 찾기 - 예시
user = db.users.find_one({'name':'bobby'})

# 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
same_ages = list(db.users.find({'age':21},{'_id':False}))

# 바꾸기 - 예시
db.users.update_one({'name':'bobby'},{'$set':{'age':19}})

# 지우기 - 예시
db.users.delete_one({'name':'bobby'})

 

4. 웹스크래핑 결과 저장하기 : insert 연습

import requests
from bs4 import BeautifulSoup

from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.

# URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)

# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
soup = BeautifulSoup(data.text, 'html.parser')

# select를 이용해서, tr들을 불러오기
movies = soup.select('#old_content > table > tbody > tr')

# movies (tr들) 의 반복문을 돌리기
for movie in movies:
    # movie 안에 a 가 있으면,
    a_tag = movie.select_one('td.title > div > a')
    if a_tag is not None:
        rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
        title = a_tag.text                                      # a 태그 사이의 텍스트를 가져오기
        star = movie.select_one('td.point').text                # td 태그 사이의 텍스트를 가져오기
        doc = {
            'rank' : rank,
            'title' : title,
            'star' : star
        }
        db.movies.insert_one(doc)

 

5. 웹스크래핑 결과 저장한 것 이용하기 : update / find 연습

 

1)영화제목 '매트릭스'의 평점을 가져오기

from pymongo import MongoClient
client = MongoClient('localhost', 27017)
db = client.dbsparta

## 코딩 할 준비 ##

target_movie = db.movies.find_one({'title':'매트릭스'})
print (target_movie['star'])

2)매트릭스 영화의 평점을 0으로 만들기

from pymongo import MongoClient
client = MongoClient('localhost', 27017)
db = client.dbsparta

## 코딩 할 준비 ##

db.movies.update_one({'title':'매트릭스'},{'$set':{'star':'0'}})

 

3주차 과제 : 지니 뮤직의 1~50위 곡의 순위 / 곡 제목 / 가수를 스크래핑

 

나의 코드

import requests
from bs4 import BeautifulSoup
from pymongo import MongoClient
client = MongoClient('localhost', 27017)  # 내 컴퓨터에서 돌아가는 몽고db에 접속할 것.
db = client.dbsparta  # dbsparta 라는 이름의 db로 접속할 것. 해당 이름의 db가 없다면 자동생성됨.

headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://www.genie.co.kr/chart/top200?ditc=D&ymd=20200403&hh=23&rtm=N&pg=1', headers=headers)
#
soup = BeautifulSoup(data.text, 'html.parser')

# body-content > div.newest-list > div > table > tbody > tr 전체
# body-content > div.newest-list > div > table > tbody > tr:nth-child(1) > td.info > a.title.ellipsis 제목
# body-content > div.newest-list > div > table > tbody > tr:nth-child(1) > td.info > a.artist.ellipsis 가수
# body-content > div.newest-list > div > table > tbody > tr:nth-child(1) > td.number

trs = soup.select('#body-content > div.newest-list > div > table > tbody > tr')

for tr in trs:
    n_tag = tr.select_one('td.number')
    if n_tag is not None:
        ranks = n_tag.text
        rank = ranks.split()[0]
        title = tr.select_one('td.info > a.title.ellipsis').text.strip()
        singer = tr.select_one('td.info > a.artist.ellipsis').text

        doc = {
            'rank': rank,
            'title': title,
            'singer': singer
        }
        db.genie.insert_one(doc)

chart = list(db.genie.find({}, {'_id':False}))

for song in chart:
    print(song['rank'], song['title'], song['singer'])

 

728x90