1º O PostgreSQL ja li vaaarios artigos dizendo que é melhor que o mysql para grandes bases, mas qual o tamanho “limite” que ele suporta?
tenho o msm banco no Postgre e no SQL Server, o SQL é muuuuito mais rapido… isso é normal?
2º Qual a melhor maneira de trabalhar com grandes bases? jdbc puro? algum framework?
3º Estive vendo alguns cursos para java, programo em java a exatos 1 ano e parece que os cursos que estou procurando sao meio “basicos” tem algum curso mais especifico ou daquele que mata a pau?
O PostgreSQL aguenta bases bem maiores que 2 mi registros, mas como em qualquer outro db, se vc nao modelar os dados direitinho e indexar as coisas certas, vai ser uma carroca.
[quote] tenho o msm banco no Postgre e no SQL Server, o SQL é muuuuito mais rapido… isso é normal? [/quote] O MS-SQL Server no seu SO Windows é realmente muito rápido já observei isso, mais em contrapartida nada impede de vc. analisar se a normalização do PostgreSQL está igual a do MS-SQLServer e poder melhorar o DML (Data Manipulation Language) .
1- JDBC puro ou iBATIS.
2- JPA/Hibernate. http://www.guj.com.br/posts/list/33121.java
Mais antes de tudo observe que vc. tem 02 bancos de dados e n.aplicações no mesmo computador (acho que nem é servidor), portanto desconsidere várias das suas procupações pois, o PostgreSQL (não sou especialista) não foi feito para o SO Windows e sim para Linux e outros SOs e, se ler o seu histórico vai observar que a versão for Windows existe somente para competir no mercado de SGBDs.
sds
[quote] Proxima mundo java vai sair um artigo sobre como usar o hibernate para grandes volumes de dados.
[/quote]E aposto que foi o “Velo” que escreveu…rs…rs…pode nos dar uma prévia.
8)
2mi pra nenhum banco é muito. Ainda mais com os índices corretos nas tabelas. E vaccumdb no pg é obrigatório. Sem isso, até access fica mais rápido. O vaccumdb serve para analisar performance e escolher as melhores formas de acesso.
falando em desempenho, dependendo do desempenho desejado (sistema CRUD “padrão” ou sistema voltado para relatórios) tu tem que se preocupar com a desnormalização
Cara ae é que ta… normalizacao implica em inner joins, sub consultas e tudo mais para tirar relatorio mas tudo bem… naum vem ao caso agora…
O banco ta bem modeladinho possui poucas tabelas… o problema (eu acho) é minha falta de experiencia com um banco grande :oops: fico preocupado ao realizar uma consulta para gerar um pdf com jasper e ver o relatorio demorar ae seus 35 45 segundos… no meu caso eu tenho 1M numa tabela e 1M na outra e faco um inner com ela… do explain e procuro a que resolve com menos custo sempre mas me assusto com a demora… (ou eu estou exigente???)
outra coisa order by de um indice de um campo varchar é sempre lento???
Configurações do Postgres com relação ao hardware disponível e nível de utilização
-Tunning do SELECT e índices
Se vc só instalou o postgres no seu servidor, é bom que procure estudar bem ou contratar uma pessoa já experiente para ajustar as configurações do postgres de acordo com o hardware e uso.