Alla databaser kräver löpande underhåll och förvaltning i syfte att bibehålla sin effektivitet och snabbhet . Vi kommer att utforska flera tekniker som används av databashanterare för att säkerställa att deras uppgifter är säkra , och deras mjukvara fortsätter att prestera som behövs . Data Normalisering
Normalisering innebär att alla data i databasen tas upp på samma sätt . . Det är avgörande för funktionaliteten av någon databas , och måste ständigt övervakas när en databas uppdateras regelbundet för hand - knappat datainmatning
Till exempel överväga följande tre namn : John Smith , Jonathan Smith , Jonathan R. Smith . En mänsklig läsare kan förstå att alla tre namnen hänvisar till samma person , så när John Smith kallar frågar om en beställning som skickades till Jonathan , kan hans behov kunna hanteras korrekt . En databas kan dock inte göra kopplingen mellan dessa tre namn , och kommer att betrakta dem som tre separata kunder ( med tre separata order historier ) om alla tre namnen skrivs in för hand .
Likaså dessa telefonnummer visas detsamma: (215) 555-2150 och 215-555-2150 . Men de är inte samma sak till en databas , beroende på hur programmet behandlar bindestreck i textsträngar , är det första telefonnumret två ord , men den andra är bara en . Varje programmatisk skript som väljer ett riktnummer vid tolkning av ordet , till exempel , kommer att misslyckas när man överväger andra
Det bästa sättet att undvika normalisering frågor är med strikt datainmatning kontroll : . Antingen förhindra en användare från att komma in missbildade uppgifter , eller ännu bättre ta dessa data och formatera den innan den lagras internt . Ett telefonnummer fält kunde kasta bort allt som inte är 0 to 9 siffror och lägga parenteser och streck - men det måste först konvertera eller avvisa alfanumeriska telefonnummer som 800-MY-PHONE
Database . fysisk storlek , RAM-användning , och hastighet
Databaser
tenderar att växa med tiden , det är vanligt för företag att fokusera på att skriva in nya uppgifter i dem , men att betala mycket mindre uppmärksamhet på att avliva gamla och oanvända uppgifter ut . Det är sällan en bra idé att slänga gamla data bort , det är alltid möjligt att en del viktig information i framtiden kommer att erhållas genom att aggregera och analysera tidigare databasposter
Detta innebär att databashanteraren måste uppmärksamma . den fysiska storleken av databasen lagras på disken . I allmänhet är det viktigt att hålla en massiv mängd av ledigt utrymme overhead på lagringsenheter , på det sättet , en skurk skript som oavsiktligt skapar en miljon nya rekord i timmen inte kan fylla upp en enhet och orsaka en kritisk databas krasch innan den kan stoppas .
Chefer bör också uppmärksamma hur deras ursprungliga programplaneringen antaganden förändras över tiden , eftersom databaserna blir stora . Databassökningar dra data från enheten och in i RAM-minnet , vilket skapar ett tak för effektiva sökalgoritmer , en sökning som var ögonblicklig över 10.000 poster kan ta timmar när antalet sökta poster är 250.000 . Sök och programmering algoritmer bör testas regelbundet och tidsbestämda , så att de kan förbättras så behövs mot större datamängder .