/project/
main.py
/DataBase/
__init__.py
db_scrapping.py
/ScrappingGithub/
__init__.py
scrapping.py
scrapping.py
scripts dansScrappingGithub
module: scrapper les informations d'un compte de github en cherchant des patterns de html du site.db_scrapping.py
scripts dansDataBase
module: faire en sort de récuperer des informations du modulescrapping.py
et de transformer en bases de données relationelles en utilisantORM SqlAlchemy
. Sortie du module est ledatabase.db
.main.py
scripts: permettre d'ouvrir un server qui reçoit le request et le répond ce qui contiennent des methodesGET
POST
UPDATE
DELETE
(GET
etPOST
pour l'instant) et même créer des requêtes ou les interfaces d'utisateur sur des routes.
- Dans terminal:
git clone
cd web-Scrapping-Github
virtualenv -p python3 scrapping-env
source scrapping-env/bin/activate
pip install -r requirements.txt
- créer un fichier
.env
et écrire et sauvegarde.
id=your mail github
password = your password
- lancer sur terminal
uvicorn main:app --reload # lancer le server
- crawlling data by POST method
POST
curl -X POST "http://127.0.0.1:8000/githubers/nguyenkhacbaoanh" -H "accept: application/json"
- get data by GET Method
GET
curl -X GET "http://127.0.0.1:8000/repository/nguyenkhacbaoanh" -H "accept: application/json"
curl -X GET "http://127.0.0.1:8000/githubers/nguyenkhacbaoanh" -H "accept: application/json"
- allez sur navigateur
http://localhost:8000/githubers/nguyenkhacbaoanh
ouhttp://localhost:3000/repository/nguyenkhacbaoanh