]> git.sur5r.net Git - bacula/bacula/blobdiff - bacula/src/cats/update_postgresql_tables.in
Removed workaround for bug in Ingres with insert into tables with sequences from...
[bacula/bacula] / bacula / src / cats / update_postgresql_tables.in
old mode 100755 (executable)
new mode 100644 (file)
index 37870a5..f99fd08
 #!/bin/sh
 #
-# Shell script to update PostgreSQL tables from version 1.36 to 1.37.12
+# Shell script to update PostgreSQL tables from version 11 to 12
 #
 echo " "
-echo "This script will update a Bacula PostgreSQL database from version 8 to 9"
-echo "Depending on the size of your database,"
-echo "this script may take several minutes to run."
+echo "This script will update a Bacula PostgreSQL database from version 11 to 12"
+echo " which is needed to convert from Bacula Enterprise 2.6 to 4.0 or "
+echo " Standard version 3.0 to 5.0"
 echo " "
-bindir=@SQL_BINDIR@
-
-if $bindir/psql -f - -d bacula $* <<END-OF-DATA
-
-ALTER TABLE media ADD COLUMN labeltype integer;
-UPDATE media SET labeltype=0;
-ALTER TABLE media ALTER COLUMN labeltype SET NOT NULL;
-ALTER TABLE media ADD COLUMN StorageId integer;
-UPDATE media SET StorageId=0;
-
-ALTER TABLE pool ADD COLUMN labeltype integer;
-UPDATE pool set labeltype=0;
-ALTER TABLE pool ALTER COLUMN labeltype SET NOT NULL;
-ALTER TABLE pool ADD COLUMN NextPoolId       integer;
-ALTER TABLE pool SET NextPoolId=0;
-ALTER TABLE pool ADD COLUMN MigrationHighBytes BIGINT;
-ALTER TABLE pool SET MigrationHighBytes=0;
-ALTER TABLE pool ADD COLUMN MigrationLowBytes  BIGINT;
-ALTER TABLE pool SET MigrationLowBytes=0;
-ALTER TABLE pool ADD COLUMN MigrationTime      BIGINT;
-ALTER TABLE pool SET MigrationTime=0;
-
-
-ALTER TABLE jobmedia ADD COLUMN Copy integer;
-UPDATE jobmedia SET Copy=0;
-ALTER TABLE jobmedia ADD COLUMN Stripe integer;
-UPDATE jobmedia SET Stripe=0;
-
-
-ALTER TABLE media ADD COLUMN volparts integer;
-UPDATE media SET volparts=0;
-ALTER TABLE media ALTER COLUMN volparts SET NOT NULL;
 
-CREATE TABLE MediaType (
-   MediaTypeId SERIAL,
-   MediaType TEXT NOT NULL,
-   ReadOnly INTEGER DEFAULT 0,
-   PRIMARY KEY(MediaTypeId)
-   );
-
-CREATE TABLE Device (
-   DeviceId SERIAL,
-   Name TEXT NOT NULL,
-   MediaTypeId INTEGER NOT NULL,
-   StorageId INTEGER UNSIGNED,
-   DevMounts INTEGER NOT NULL DEFAULT 0,
-   DevReadBytes BIGINT NOT NULL DEFAULT 0,
-   DevWriteBytes BIGINT NOT NULL DEFAULT 0,
-   DevReadBytesSinceCleaning BIGINT NOT NULL DEFAULT 0,
-   DevWriteBytesSinceCleaning BIGINT NOT NULL DEFAULT 0,
-   DevReadTime BIGINT NOT NULL DEFAULT 0,
-   DevWriteTime BIGINT NOT NULL DEFAULT 0,
-   DevReadTimeSinceCleaning BIGINT NOT NULL DEFAULT 0,
-   DevWriteTimeSinceCleaning BIGINT UNSIGNED DEFAULT 0,
-   CleaningDate TIMESTAMP WITHOUT TIME ZONE,
-   CleaningPeriod BIGINT NOT NULL DEFAULT 0,
-   PRIMARY KEY(DeviceId)
-   );
-
-CREATE TABLE Storage (
-   StorageId SERIAL,
-   Name TEXT NOT NULL,
-   AutoChanger INTEGER DEFAULT 0,
-   PRIMARY KEY(StorageId)
-   );
-
-CREATE TABLE Status (
-   JobStatus CHAR(1) NOT NULL,
-   JobStatusLong TEXT, 
-   PRIMARY KEY (JobStatus)
-   );
-
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('C', 'Created, not yet running');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('R', 'Running');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('B', 'Blocked');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('T', 'Completed successfully');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('E', 'Terminated with errors');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('e', 'Non-fatal error');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('f', 'Fatal error');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('D', 'Verify found differences');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('A', 'Canceled by user');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('F', 'Waiting for Client');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('S', 'Waiting for Storage daemon');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('m', 'Waiting for new media');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('M', 'Waiting for media mount');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('s', 'Waiting for storage resource');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('j', 'Waiting for job resource');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('c', 'Waiting for client resource');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('d', 'Waiting on maximum jobs');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('t', 'Waiting on start time');
-INSERT INTO Status (JobStatus,JobStatusLong) VALUES
-   ('p', 'Waiting on higher priority jobs');
-
-
-DELETE FROM version;
-INSERT INTO version (versionId) VALUES (9);
-
-vacuum;
+bindir=@SQL_BINDIR@
+PATH="$bindir:$PATH"
+db_name=@db_name@
+
+if psql -f - -d ${db_name} $* <<END-OF-DATA
+BEGIN; -- Necessary for Bacula core
+ALTER TABLE JobMedia DROP Copy ;
+ALTER TABLE Job ADD COLUMN HasCache smallint default 0;
+ALTER TABLE Job ADD COLUMN Reviewed smallint default 0;
+ALTER TABLE Job ADD COLUMN Comment text;
+ALTER TABLE JobHisto ADD COLUMN HasCache smallint default 0;
+ALTER TABLE JobHisto ADD COLUMN Reviewed smallint default 0;
+ALTER TABLE JobHisto ADD COLUMN Comment text;
+UPDATE Version SET VersionId=12;
+COMMIT;
+
+BEGIN; -- Can conflict with previous Bweb installation
+ALTER TABLE Status ADD COLUMN Severity int;
+UPDATE Status SET Severity = 15;
+UPDATE Status SET Severity = 100 where JobStatus = 'f';
+UPDATE Status SET Severity = 90 where JobStatus = 'A';
+UPDATE Status SET Severity = 10 where JobStatus = 'T';
+UPDATE Status SET Severity = 20 where JobStatus = 'e';
+UPDATE Status SET Severity = 25 where JobStatus = 'E';
+COMMIT;
+
+BEGIN; -- Can already exists if using 3.1.x release
+CREATE TABLE PathHierarchy
+(
+     PathId integer NOT NULL,
+     PPathId integer NOT NULL,
+     CONSTRAINT pathhierarchy_pkey PRIMARY KEY (PathId)
+);
+
+CREATE INDEX pathhierarchy_ppathid 
+          ON PathHierarchy (PPathId);
+
+CREATE TABLE PathVisibility
+(
+      PathId integer NOT NULL,
+      JobId integer NOT NULL,
+      Size int8 DEFAULT 0,
+      Files int4 DEFAULT 0,
+      CONSTRAINT pathvisibility_pkey PRIMARY KEY (JobId, PathId)
+);
+
+CREATE INDEX pathvisibility_jobid
+          ON PathVisibility (JobId);
+
+COMMIT;
+
+CREATE INDEX basefiles_jobid_idx ON BaseFiles ( JobId );
+
+-- Remove bad PostgreSQL index
+DROP INDEX file_fp_idx;
+
+-- Create the good one
+-- If you want to create this index during production, you can use 
+-- CREATE INDEX CONCURRENTLY file_jpf_idx ON File (JobId, PathId, FilenameId)
+-- to make it without locks (require PostgreSQL 8.2 version)
+
+CREATE INDEX file_jpfid_idx on File (JobId, PathId, FilenameId);
+
+ANALYSE;
 
 END-OF-DATA
 then