-
Notifications
You must be signed in to change notification settings - Fork 1
/
doc.txt
51 lines (37 loc) · 2.32 KB
/
doc.txt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
DATOS DE ZONAS Y ESPECÍMENES:
En WildDex tenemos dos carpetas con el nombre Malla10x10_p* y Malla10x10_c*, que contienen una malla de 10x10km para la peninsula y canarias respectivamente.
Estas mallas están explicadas en el fichero con nombre IEET_Malla10*.
También tenemos un fichero flora-fauna.csv que contiene las especies de animales y plantas de España.
Con estos datos sabemos qué especies (animales y plantas) tenemos en cada zona.
Para crear la base de datos y cargar los datos de las zonas y las especies, se tienen que seguir los siguientes pasos:
1. Crear base de datos con extensión de postgis:
createdb nature
psql nature
nature=# CREATE EXTENSION postgis;
2. Migración:
python manage.py migrate
3. Generar sql a partir de las Mallas:
Si existen los ficheros mallap.sql y mallac.sql dentro de las carpetas de Malla10x10*, no hace falta generarlos.
Si hiciera falta generarlos, habría que ejecutar dentro de cada carpeta de Malla10x10* el siguiente comando de postgis:
shp2pgsql -d -s 25830:4326 MALLA10X10_P.shp > mallap.sql (para la carpeta de Malla10x10_p*)
shp2pgsql -d -s 32628:4326 MALLA10X10_C.shp > mallac.sql (para la carpeta de Malla10x10_c*)
4. Cargar sql de mallas en nuestra base de datos:
psql nature < mallap.sql
psql nature < mallac.sql
5. Cargar zonas en nuestra base de datos:
psql nature < insert_zones.sql
6. Cargar especímenes y especímenes por zona en nuestra base de datos:
python manage.py add_specimenes --file=ruta-fichero/flora-fauna.csv
7. Crear superusuario de Django:
Para comprobar que la carga se ha hecho correctamente.
python manage.py createsuperuser (admin, admin)
Entrar en el admin para verificar que la carga es correcta.
También se puede hacer por postgres o con el pgAdmin.
DATOS PARA ESPECÍMENES:
Necesitamos nombres comunes, descripciones e imágenes y para ello hemos hecho web scraping, de la wikipedia principalmente.
Tenemos los siguientes commands:
- scraping_common_name: Para obtener los nombres comunes a partir del nombre científico.
- scraping_description: Para obtener la descripción a partir del nombre científico.
- scraping_photo: Para obtener una imagen a partir del nombre científico.
- Después de la carga de imágenes hay que ejecutar add_image_name que añade el nombre de la imagen al campo specimen_image.
Estos datos hay que revisarlos para ver si son correctos.