On Thu, Oct 17, 2002 at 10:47:32AM +0200, Zen wrote: > [Premessa, non capisco niente di DB] > > On Thu, Oct 17, 2002 at 10:41:23AM +0200, Emanuele Olivetti wrote: > > 1) bisogna cercare la massima efficienza (performance) perche' > > precedentemente > > il tutto veniva gestito tenendo i dati su file ed era una scheggia. > > Ovviamente > > Pero` dopo dici che devi gestire tra il milione e il 1/2 milione > di record. > Per piccoli che siano, se la tua query vuole l'ultimo penso che > un db sia piu` veloce di un file, o no? In realta' l'informazione veniva preparata su file appositi (senza troppe ottimizzazioni a dire il vero) a partire dai file reali prima del calcolo. Pero' in parte hai comunque ragione. > > > 2) i record potrebbero essere dell'ordine di 500.000 - 1.000.000 > > Non conosco postgres perche` sono uno dei trogloditi per i quali > mysql fa anche troppo. > Io ho avuto tabelle anche sopra al milione di record (accounting > di un ISP) e non aveva problemi gia` un paio di anni fa. > Postgres mi dicono essere transazionale e con una compatibilita` > SQL92 piu` ampia, ma ne ignoro le prestazioni (per quanto credo > siano paragonabili a quelle di mysql). Ottimo, pensavo che mysql fosse indicato per numeri piu' bassi e fosse meglio evitare sopra i 100.000 record. Ottima notizia. Grazie per i sugerimenti, Emanuele -- Per iscriversi (o disiscriversi), basta spedire un messaggio con SOGGETTO "subscribe" (o "unsubscribe") a mailto:linuxtrent-request@xxxxxxxxxxxxx