Om jag laddar upp samma fil flera gånger, eller om det finns dubletter i filen, hamnar alla dom uppkopplingarna flera gånger i databasen?
Nej, importscriptet hanterar dubletter med hjälp av en unik nyckel som skapas av dessa fält:
Stadsnät, Fastighetsbeteckning, Gatunamn, Gatubokstav, Gatunummer, Lokal-ID, Lokal-typ, uttags-ID
Så, minsta gemensamma nämnare är alltså uttags-ID, så så länge den är unik för varje rad så blir det en unik post i databasen. Om erat grunddata har två rader för samma uttags-ID (om det till exempel är två ägare eller dylikt) så kommer enbart den
sista importeras - det beror på att den första skapar en post medan alla andra dubletter uppdaterar den posten med ny data på de övriga fälten.
Om ni laddar upp samma data igen så kommer alltså scriptet att kontrollera om posten redan finns, enligt nyckeln ovan, och då uppdatera informationen om det gör det, vilket innebär att ni kan uppdatera datum för uppkoppling, om CPE finns, vilken layer-nivå och dylikt, som ett uttag har i efterhand på det viset.
Om erat stadsnät inte har uttags-ID så gäller samma nyckel dock, så ju färre komponenter av nyckeln ni har i databasen desto fler dubletter riskerar ni att få (och alltså färre poster i databasen)
Om ni ändrar i den unika nyckeln för en post (som att ni till exempel uppdaterar äldre data med att lägga till uttags-ID) så kommer det skapa faktiska dubletter i databasen, en post med samma information med uttags-ID och en äldre utan uttags-ID, så när ni förändrar datat som utgör den unika nyckeln så bör ni manuellt ta bort de gamla posterna eller tömma databasen vid import.