]> git.sur5r.net Git - bacula/bacula/blobdiff - regress/scripts/bacula-dir-tape.conf.in
Update
[bacula/bacula] / regress / scripts / bacula-dir-tape.conf.in
index 2b4377e14b4c37d26ff5583123b8c5f3836b4482..f92dadb6e75788f0f3336e285b582939b0725d7d 100644 (file)
 
 Director {                            # define myself
   Name = @hostname@-dir
-  DIRport = 8101                # where we listen for UA connections
+  DIRPort = @dirport@                # where we listen for UA connections
   QueryFile = "@scriptdir@/query.sql"
   WorkingDirectory = "@working_dir@"
   PidDirectory = "@piddir@"
   Maximum Concurrent Jobs = 4
   Password = "pNvX1WiXnwv2C/F7E52LGvw6rKjbbPvu2kyuPa9pVaL3"
   Messages = Daemon
+  FD Connect Timeout = 2min 
 }
 
 #
 # Define the main nightly save backup job
-#   By default, this job will back up to disk in /tmp
+#   By default, this job will back up to disk in @tmpdir@
 Job {
   Name = "NightlySave"
   Type = Backup
-  Client=@hostname@-fd 
+  Client = @hostname@-fd 
   FileSet="Full Set"
   Storage = DDS-4
   Messages = Standard
@@ -40,10 +41,11 @@ Job {
 # Prefer Mounted Volumes = no
 }
 
+
 Job {
   Name = "NightlySave1"
   Type = Backup
-  Client=@hostname@-fd 
+  Client = @hostname@-fd 
   FileSet="Full Set"
   Storage = DDS-4
   Messages = Standard
@@ -52,7 +54,7 @@ Job {
   Maximum Concurrent Jobs = 4
   SpoolData = yes
 # Prefer Mounted Volumes = no
-  Client Run Before Job = "/bin/sleep 120"
+  Client Run Before Job = "/bin/sleep 10"
 }
 
 Job {
@@ -84,6 +86,19 @@ Job {
 # Prefer Mounted Volumes = no
 }
 
+Job {
+  Name = "Virtual"
+  Type = Backup
+  Client=@hostname@-fd 
+  FileSet="Full Set"
+  Storage = Virtual
+  Messages = Standard
+  Pool = Default
+  Write Bootstrap = "@working_dir@/NightlySave.bsr"
+  Maximum Concurrent Jobs = 4
+  SpoolData = yes
+# Prefer Mounted Volumes = no
+}
 
 
 
@@ -96,7 +111,7 @@ Job {
   Storage = DDS-4
   Messages = Standard
   Pool = Default
-  Where = /tmp/bacula-restores
+  Where = @tmpdir@/bacula-restores
 }
 
 
@@ -104,7 +119,7 @@ Job {
 FileSet {
   Name = "Full Set"
   Include { Options { signature=MD5 }
-    File =  </tmp/file-list
+    File =  <@tmpdir@/file-list
   }
 }
 
@@ -115,7 +130,7 @@ FileSet {
        signature=MD5
        verify=pins1
     }
-    File =  </tmp/file-list
+    File =  <@tmpdir@/file-list
   }
 }
 
@@ -136,7 +151,7 @@ Schedule {
 Client {
   Name = @hostname@-fd
   Address = @hostname@
-  FDPort = 8102
+  FDPort = @fdport@
   Catalog = MyCatalog
   Password = "xevrjURYoCHhn26RaJoWbeWXEY/a3VqGKp/37tgWiuHc"          # password for FileDaemon
   File Retention = 30d                # 30 days
@@ -149,7 +164,7 @@ Client {
 Storage {
   Name = DDS-4
   Address = @hostname@                # N.B. Use a fully qualified name here
-  SDPort = 8103
+  SDPort = @sdport@
   Password = "ccV3lVTsQRsdIUGyab0N4sMDavui2hOBkmpBU0aQKOr9"          # password for Storage daemon
   Device = DDS-4                      # must be same as Device in Storage daemon
   Media Type = DDS-4                  # must be same as MediaType in Storage daemon
@@ -158,20 +173,46 @@ Storage {
 }
 
 
+# Definition of File storage device
+Storage {
+  Name = File
+  Address = @hostname@                # N.B. Use a fully qualified name here
+  SDPort = @sdport@
+  Password = "ccV3lVTsQRsdIUGyab0N4sMDavui2hOBkmpBU0aQKOr9"          # password for Storage daemon
+  Device = FileStorage                # must be same as Device in Storage daemon
+  Media Type = FileMedia              # must be same as MediaType in Storage daemon
+  Maximum Concurrent Jobs = 4
+}
+
+# Definition of Virtual storage device
+Storage {
+  Name = Virtual
+  Address = @hostname@                # N.B. Use a fully qualified name here
+  SDPort = @sdport@
+  Password = "ccV3lVTsQRsdIUGyab0N4sMDavui2hOBkmpBU0aQKOr9"          # password for Storage daemon
+  Device = Virtual                    # must be same as Device in Storage daemon
+  Media Type = Disk                   # must be same as MediaType in Storage daemon
+  Maximum Concurrent Jobs = 4
+}
+
+
+
+
 # Generic catalog service
 Catalog {
   Name = MyCatalog
-  dbname = regress; user = regress; password = ""
+  @libdbi@
+  dbname = @db_name@; user = @db_user@; password = "@db_password@"
 }
 
 # Reasonable message delivery -- send most everything to email address
 #  and to the console
 Messages {
   Name = Standard
-  mailcommand = "@sbindir@/bsmtp -h localhost -f \"\(Bacula Regression Job %j\) %r\" -s \"Bacula: %t %e of %c %l\" %r"
-  operatorcommand = "@sbindir@/bsmtp -h localhost -f \"\(Bacula Regression Job %j\) %r\" -s \"Bacula: Intervention needed for %j\" %r"
-  MailOnError = @job_email@ = all, !terminate
-  operator = @job_email@ = mount
+  mailcommand = "@sbindir@/bsmtp -h localhost -f \"\(Bacula regression Job %j\) %r\" -s \"Regression: %t %e of %c %l\" %r"
+  operatorcommand = "@sbindir@/bsmtp -h localhost -f \"\(Bacula regression Job %j\) %r\" -s \"Regression: Intervention needed for %j\" %r"
+# MailOnError = @job_email@ = all, !terminate
+# operator = @job_email@ = mount
   console = all, !skipped, !terminate, !restored
 #
 # WARNING! the following will create a file that you must cycle from
@@ -179,16 +220,18 @@ Messages {
 #          also keep all your messages if the scroll off the console.
 #
   append = "@working_dir@/log" = all, !skipped
+  catalog = all, !skipped
 }
 
 #
 # Message delivery for daemon messages (no job).
 Messages {
   Name = Daemon
-  mailcommand = "@sbindir@/bsmtp -h @smtp_host@ -f \"\(Bacula\) %r\" -s \"Bacula daemon message\" %r"
-  mail = @job_email@ = all, !skipped            
+  mailcommand = "@sbindir@/bsmtp -h @smtp_host@ -f \"\(Bacula regression\) %r\" -s \"Regression daemon message\" %r"
+# mail = @job_email@ = all, !skipped            
   console = all, !skipped, !saved
   append = "@working_dir@/log" = all, !skipped
+  catalog = all, !skipped
 }
 
     
@@ -223,4 +266,5 @@ Pool {
   Recycle = yes                       # Bacula can automatically recycle Volumes
   AutoPrune = yes                     # Prune expired volumes
   Volume Retention = 365d             # one year
+  Recycle Pool = Scratch              # recycle back here
 }