BigDump, importer une base de données volumineuse facilement

Bigdump est un script PHP, tenant sur un tout petit fichier de 33Ko, un véritable concentré de technologie si utile, et indispensable.

Ce script va vous permettre d'importer une grosse base de données avec une simplicité déconcertante et je vais vous en détailler le fonctionnement étape par étape (step by step, là c'est pour montrer mon niveau d'anglais vraiment très bon).

La première difficulté réside dans le téléchargement du logiciel, je vous donne donc le lien de téléchargement : Télécharger BigDump
Dans un second temps il vous faudra déziper le fichier téléchargé et configurer ce dernier.

Comment configurer BigDump

Ouvrez le fichier nommé bigdump.php avec un éditeur de textes comme notepad++

1/ Connexion à la base de données
A la ligne 40, il vous faudra entrer les informations de connexion à votre base de données.

BigDump configuration base de données


2/ Configuraton de l'importation
A la ligne 50, $linespersession  = 3000;
Remplacez 3000 par 50000.
A la ligne 51, $delaypersession  = 0;
Remplacez 0 par 10.

A la ligne 97, mettre le configuration suivante ;
MAX_QUERY_LINES',30000


BigDump option


3/ Configuration du jeu de caractère (charset, encodage)
A la ligne 67, $db_connection_charset = '';
Indiquez le jeu de caractères de votre sauvegarde, par exemple "utf8" pour une sauvegarde provenant de Arfooo Annuaire qui utilise l'encoage utf8.

BigDump configuration charset


Si vous utilisez l'encodage iso8859-1, iso559-15... alors utilisez "latin1"

Une fois la configuration terminée, sauvergardez le fichier bigdump.php
Créez un dossier sur votre serveur, nommé le "bigdump" et uploader dans ce dossier le fichier
bigdump.php que vous venez de configurer.

Dans ce même dossier uploader votre sauvegarde (dump) qui ressemble à "backup.sql" ou "nom_de_votre_base.sql".

Si les informations à la connexion de votre base de données sont erronées, bigdump vous informera immédiatement en affichant le screenshot ci-dessous, il faudra alors vérifier les informations que vous avez entré.

BigDump configuration erreur


Si les informations sont correctes alors vous devriez avoir quelque chose comme ceci:

BigDump configuration ok

Sur la gauche se trouve le nom du fichier à importer, ici "test.sql", la taille, la date et l'heure, le type de fichier, puis "start import into test2 at localhost" que nous traduisons par "commencer l'importation dans test2 (nom de votre base de données) sur localhost".

Vous l'aurez compris, il vous suffit d'appuyer sur start import, si votre sauvegarde est assez volumineuse alors une barre de progression vous informera en temps réel de la progression de l'importation.Une fois l'importation finie, voici ce que vous obtiendrez :

BigDump imporation terminée

Vérifiez si tout s'est bien déroulé

Pour celà la première chose à vérifier est l'affichage des caractères qui peut poser problème. Si cela se produit alors il suffit de recommencer l'importation en modifiant le jeu de caractères à l'étape 3.
Vérifiez également si vous avez récupéré toutes vos données mais normalement ce point devrait ne poser aucun problème.

  • Publié le 20 septembre 2008 par Guillaume Hocine
  • 11

11 commentaires pour "BigDump, importer une base de données volumineuse facilement"

  • Khelian à écrit : 07 décembre 2008

    Excellente explication, très détaillée, qui aide beaucoup à la compréhension de cet outil fort pratique.

    Merci beaucoup !

  • David à écrit : 13 octobre 2009

    Vraiment excellent ! base de 15mo importée en à peine 15 seconde alors que phpmyadmin ne veut pas plus de 2mo !

    Super, vous pouvez l'installer sur n'importe qu'elle emplacement, même sur un autre domaine dans votre dossier www/ ou htdocs/

  • laty à écrit : 26 novembre 2009

    j'ai essaye plusieurs fois bigdump sans succès grace à vos explications j'ai pu dump sans pb ma base de données gg @ vous

  • Raphael à écrit : 20 janvier 2010

    Bonjour,

    Formidable ce script j'ai réussit à importer de 45Mo. Merci

    J'ai modifie le script comme suit :

    Ligne 53 et 54 :

    $linespersession = 50000000; // Lines to be executed per one import session
    $delaypersession = 10;

    Ligne 82 (en plus des modifications proposées):

    time define ('MAX_QUERY_LINES',30000)

  • bruno à écrit : 25 juillet 2010

    bonjour comment faire quand on a ca ?
    At this place the current query includes more than 300 dump lines. That can happen if your dump file was created by some tool which doesn't place a semicolon followed by a linebreak at the end of each query, or if your dump contains extended inserts. Please read the BigDump FAQs for more infos.

    merci

  • Fredo à écrit : 19 septembre 2010

    Parfait ce truc !!!
    A garder sous le coude ce petit tuto ...

  • Acouphene à écrit : 09 mai 2011

    J'ai le message d'erreur suivant :

    Error at the line 290322: INSERT INTO `wp_stt2_meta` (`post_id`,`meta_value`,`meta_count`,`last_modified`) VALUES ('1020','r�sum� vid�o om aca 1 0','4','2011-02-07 18:10:32');

    Query: INSERT INTO `wp_stt2_meta` (`post_id`,`meta_value`,`meta_count`,`last_modified`) VALUES ('1020','résumé vidéo om aca 1 0','4','2011-02-07 18:10:32');

    MySQL: Duplicate entry '1020-r' for key 'PRIMARY'


    J'ai exporté 2 fois ma base et j'obtiens le même message avec chacun des 2 exports. Une idée ?

  • Dje à écrit : 19 mai 2011

    Salut,

    J'essaye d'importer une base de donnée de mon site spip en local pour jouer un peu avec sur mon ordi, mais j'ai ce message quand je commence l'import

    Error at the line 15: CREATE DATABASE `information_schema` DEFAULT CHARACTER SET utf8 COLLATE utf8_general_ci;

    J'ai pourtant essayer plusieurs champs dans le $db_connection_charset, mais rien y fait..

    D'avance merci pour vos lumières

  • Dam à écrit : 30 juin 2011

    Si comme moi vous avez une grosse base de donnée (plusieurs centaines de Mo) et que vous avez des problèmes pour faire une sauvegarde de votre base de donnée via phpmyadmin pour faire ensuite un bigdump vous pouvez utiliser mysqldumper très simple et bien utile.

  • Sawen à écrit : 27 février 2012

    Plus de 450 mo sur une base de donnée d'un forum transférée :

    1/ génération du .sql par MySQLDumper (environ 5min)
    2/ Importation de la base par BigDump (2min)

    Franchement excellents outils pour ceux ayant de grosses bases !

  • kev à écrit : 19 juin 2012

    bonjour je déterre ce topic car je viens de suivre la méthode donner mais différente erreur apparaisse lors de l’exécution.

    la première est le message d'erreur me disant qu'il n'y a pas de base de donner dans le registre (comme sur ton image) alors qu'elle est bien dedans et un autre me dit:

    Undefined variable: curfilename in C:\Program Files (x86)\EasyPHP-5.3.3.1\www\BigDump\bigdump.php on line 533

    si quelqu'un peu m'aider a importer ma base de donnée je vous remercie d'avance

Laisser un commentaire