]> git.sur5r.net Git - bacula/bacula/blobdiff - regress/scripts/test-bacula-dir.conf.in
Exit if zombie jobs or log errors
[bacula/bacula] / regress / scripts / test-bacula-dir.conf.in
index 94bd6f1b36fbd5a4bbf5dfce1abbe4c1a2f4af26..4520fa83f374610f6475e8a9da2b23a6bef4e7a0 100644 (file)
@@ -5,7 +5,7 @@
 #   file or directory names in the Include directive of the
 #   FileSet resource.
 #
-#  For Bacula release 1.30 (12 April 2003) -- redhat 7.3
+#  For Bacula release 2.2.2
 #
 #  You might also want to change the default email address
 #   from root to your address.  See the "mail" and "operator"
@@ -19,9 +19,9 @@ Director {                            # define myself
   WorkingDirectory = "@working_dir@"
   PidDirectory = "@piddir@"
   SubSysDirectory = "@subsysdir@"
-  Maximum Concurrent Jobs = 1
+  Maximum Concurrent Jobs = 4
   Password = "pNvX1WiXnwv2C/F7E52LGvw6rKjbbPvu2kyuPa9pVaL3"         # Console password
-  Messages = Standard
+  Messages = Daemon
 }
 
 #
@@ -36,6 +36,8 @@ Job {
   Messages = Standard
   Pool = Default
   Write Bootstrap = "@working_dir@/NightlySave.bsr"
+  Maximum Concurrent Jobs = 4
+  SpoolData=yes
 }
 
 Job {
@@ -82,7 +84,9 @@ Job {
   Storage = File
   Messages = Standard
   Pool = Default
+  Maximum Concurrent Jobs = 4
   Write Bootstrap = "@working_dir@/NightlySave.bsr"
+# Max Run Time = 15 seconds
 }
 
 Job {
@@ -108,7 +112,7 @@ Job {
   Messages = Standard
   Pool = Default
   # This creates an ASCII copy of the catalog
-  RunBeforeJob = "@sbindir@/make_catalog_backup -u bacula"
+  RunBeforeJob = "@sbindir@/make_catalog_backup -u regress"
   # This deletes the copy of the catalog
   RunAfterJob  = "@sbindir@/delete_catalog_backup"
   Write Bootstrap = "@working_dir@/BackupCatalog.bsr"
@@ -130,29 +134,33 @@ Job {
 # List of files to be backed up
 FileSet {
   Name = "Full Set"
-  Include = signature=MD5 { 
-    </tmp/file-list
+  Include  { Options { signature=MD5 }
+    File = </tmp/file-list
   }
 }
 
 FileSet {
   Name = "SparseSet"
-  Include = signature=MD5 sparse=yes { 
-    </tmp/file-list
+  Include { Options { signature=MD5; sparse=yes }
+    File=</tmp/file-list
   }
 }
 
 FileSet {
   Name = "CompressedSet"
-  Include = signature=MD5 compression=GZIP { 
-    </tmp/file-list
+  Include {
+    Options { signature=MD5; compression=GZIP }
+    File =</tmp/file-list
   }
 }
 
 FileSet {
   Name = "SparseCompressedSet"
-  Include = signature=MD5 compression=GZIP { 
-    </tmp/file-list
+  Include {
+    Options {
+      signature=MD5; compression=GZIP
+    }
+    File= </tmp/file-list
   }
 }
 
@@ -164,22 +172,22 @@ FileSet {
 #  and incremental backups other days
 Schedule {
   Name = "WeeklyCycle"
-  Run = Full 1st sun at 1:05
-  Run = Differential 2nd-5th sun at 1:05
-  Run = Incremental mon-sat at 1:05
+  Run = Level=Full 1st sun at 1:05
+  Run = Level=Differential 2nd-5th sun at 1:05
+  Run = Level=Incremental mon-sat at 1:05
 }
 
 # This schedule does the catalog. It starts after the WeeklyCycle
 Schedule {
   Name = "WeeklyCycleAfterBackup"
-  Run = Full sun-sat at 1:10
+  Run = Level=Full sun-sat at 1:10
 }
 
 # This is the backup of the catalog
 FileSet {
   Name = "Catalog"
-  Include = signature=MD5 {
-     /home/kern/bacula/regress/bin/working/bacula.sql
+  Include { Options { signature=MD5 }
+     File=/home/kern/bacula/regress/bin/working/bacula.sql
   }
 }
 
@@ -193,6 +201,7 @@ Client {
   File Retention = 30d                # 30 days
   Job Retention = 180d                # six months
   AutoPrune = yes                     # Prune expired Jobs/Files
+  Maximum Concurrent Jobs = 4
 }
 
 # Definiton of file storage device
@@ -203,6 +212,7 @@ Storage {
   Password = "ccV3lVTsQRsdIUGyab0N4sMDavui2hOBkmpBU0aQKOr9"
   Device = FileStorage
   Media Type = File
+  Maximum Concurrent Jobs = 4
 }
 
 Storage {
@@ -212,6 +222,7 @@ Storage {
   Password = "ccV3lVTsQRsdIUGyab0N4sMDavui2hOBkmpBU0aQKOr9"
   Device = FileStorage1
   Media Type = File1
+  Maximum Concurrent Jobs = 4
 }
 
 
@@ -249,18 +260,18 @@ Storage {
 # Generic catalog service
 Catalog {
   Name = MyCatalog
-  dbname = bacula; user = bacula; password = ""
+  dbname = regress; user = regress; password = ""
 }
 
 # Reasonable message delivery -- send most everything to email address
 #  and to the console
 Messages {
   Name = Standard
-  mailcommand = "@sbindir@/smtp -h localhost -f \"\(Bacula Regression\) %r\" -s \"Bacula: %t %e of %c %l\" %r"
-  operatorcommand = "@sbindir@/smtp -h localhost -f \"\(Bacula Regression\) %r\" -s \"Bacula: Intervention needed for %j\" %r"
+  mailcommand = "@sbindir@/bsmtp -h localhost -f \"\(Bacula regression\) %r\" -s \"Regression: %t %e of %c %l\" %r"
+  operatorcommand = "@sbindir@/bsmtp -h localhost -f \"\(Bacula regression\) %r\" -s \"Regression: Intervention needed for %j\" %r"
   MailOnError = @job_email@ = all
   operator = @job_email@ = mount
-  console = all, !skipped
+  console = all, !skipped, !terminate, !restored
 #
 # WARNING! the following will create a file that you must cycle from
 #          time to time as it will grow indefinitely. However, it will
@@ -271,8 +282,8 @@ Messages {
 
 Messages {
   Name = NoEmail
-  mailcommand = "@sbindir@/smtp -h localhost -f \"\(Bacula Regression\) %r\" -s \"Bacula: %t %e of %c %l\" %r"
-  console = all, !skipped
+  mailcommand = "@sbindir@/bsmtp -h localhost -f \"\(Bacula regression\) %r\" -s \"Regression: %t %e of %c %l\" %r"
+  console = all, !skipped, !terminate
 #
 # WARNING! the following will create a file that you must cycle from
 #          time to time as it will grow indefinitely. However, it will
@@ -281,6 +292,15 @@ Messages {
   append = "@working_dir@/log" = all, !skipped
 }
 
+#
+# Message delivery for daemon messages (no job).
+Messages {
+  Name = Daemon
+  mailcommand = "@sbindir@/bsmtp -h @smtp_host@ -f \"\(Bacula regression\) %r\" -s \"Regression daemon message\" %r"
+  mail = @job_email@ = all, !skipped            
+  console = all, !skipped, !saved
+  append = "@working_dir@/log" = all, !skipped
+}
     
 # Default pool definition
 Pool {
@@ -289,5 +309,4 @@ Pool {
   Recycle = yes                       # Bacula can automatically recycle Volumes
   AutoPrune = yes                     # Prune expired volumes
   Volume Retention = 365d             # one year
-  Accept Any Volume = yes             # write on any volume in the pool
 }