Fixed broken escapes in README.md master
authorYeGoblynQueenne@splinter <ep50@uni.brighton.ac.uk>
Fri, 25 Nov 2016 13:12:26 +0000 (13:12 +0000)
committerYeGoblynQueenne@splinter <ep50@uni.brighton.ac.uk>
Fri, 25 Nov 2016 13:12:26 +0000 (13:12 +0000)
* 'Twas my fault after all.

README.md

index f240a3d..094a4ba 100644 (file)
--- a/README.md
+++ b/README.md
@@ -39,7 +39,7 @@ On Mac or Linux you may have to do this:
 
  1. change directory to <project-root> 
  2. start Swi-Prolog 
- 3. enter "[load\_project]."
+ 3. enter "[load_project]."
 
 On Mac or Linux that will *probably* not bring up the IDE. On a Windows machine
 you should see output similar to the following:
@@ -83,7 +83,7 @@ tree_learning/configuration.pl
 
 Structured comments in that file provide useful information about the various
 options and can be viewed with the Swi documentation browser (look for the path
-ending in "grammar\_learning" in the drop down at the top of the documentation
+ending in "grammar_learning" in the drop down at the top of the documentation
 page). 
 
 To follow through with this short guide, make sure you have the following
@@ -100,7 +100,7 @@ training_set_size(1.0)
 transformation_format(right_regular)
 ```
 
-Except for edit\_output\_grammar(true) these options will already be set by
+Except for edit_output_grammar(true) these options will already be set by
 default and will allow training a right-regular grammar with a *k* value of 1
 and with no lexicalisation.
 
@@ -122,6 +122,14 @@ print_productions.
 It is really not advised to do this with a larger corpus, resulting in a very
 large number of productions printing out for a long time.
 
+The grammar file generated this way will be in tree_learning/output/ and will be
+named after the configured examples and language file so that you can easily
+identify it:
+
+```
+right_regular_k_1_mtg_hand_simulation_ability_text_dcg.pl
+```
+
 
 ### Inspecting current configuration options
 
@@ -154,19 +162,6 @@ appear to take a very long time to process. If a minute or so passes without any
 feedback at all, especially if you're following through with this guide with
 only small variations, you should kill Prolog and start again.
 
-Start training our toy grammar by entering this query at the Prolog top-level: 
-
-```
-print_grammar. 
-```
-
-THELEMA will place a grammar file in tree\_learning/output/ named after the
-configured examples and language file so that you can easily identify it:
-
-```
-right_regular_k_1_mtg_hand_simulation_ability_text_dcg.pl
-```
-
 
 ### Training with a larger corpus 
 To train a grammar on a different training corpus, edit the configuraiton
@@ -177,7 +172,7 @@ examples_file_name(mtg_hand_simulation).
 ```
 
 The configuration file already includes a number of different corpora, commented
-out. Most of them exist as Prolog source files inside the tree\_learning/corpus/
+out. Most of them exist as Prolog source files inside the tree_learning/corpus/
 directory.
 
 Uncomment the line declaring the full M:tG corpus as the current training
@@ -227,7 +222,7 @@ stack capacity while processing a large corpus, depending on other configuration
 options. 
 
 The global stack size is already set to 512 MB by default, and it can be
-increased further by editing the project load file, "load\_project.pl" at the
+increased further by editing the project load file, "load_project.pl" at the
 project root directory. 
 
 Find the line, near the end of that file, where the global stack limit is set:
@@ -285,8 +280,8 @@ ability-->n_A.
 ```
 
 "ability" is the start symbol of the trained grammar, defined in a language
-file named <project root>/grammar\_learning/language/ability\_text.pl. This can
-be configured with option language\_file\_name/1.
+file named <project root>/grammar_learning/language/ability_text.pl. This can
+be configured with option language_file_name/1.
 
 The grammar file echoes a short set of configuration options. This way, it's a
 little easier to tell how a particular grammar came to be.
@@ -296,12 +291,12 @@ Parsing and generating Ability Text with the query interface
 ============================================================
 
 Once a grammar is trained, it can be queried with the predicates in the
-query\_interface module (in directory grammar\_learning). These are there for
+query_interface module (in directory grammar_learning). These are there for
 convenience, to avoid having to load and re-load trained grammars at the
 top-level (which may sometimes give errors about redefined predicates; the query
 interface modules should help avoid that). Additionally, trained grammars are
 "sanitised" with a prefix character that ensures nonterminal symbols are valid
-prolog identifiers. By default this prefix is the characters "n\_" which makes
+prolog identifiers. By default this prefix is the characters "n_" which makes
 parsing and generating strings a bit cumbersome, without the query interface
 predicates.
 
@@ -376,7 +371,7 @@ false.
 false.
 ```
 
-The second argument of sentence\_completion/2 limits the length of derivation,
+The second argument of sentence_completion/2 limits the length of derivations,
 and therefore the depth of parsing. This is necessary to control right-recursion
 which may cause parsing to "go infinite". 
 
@@ -407,12 +402,12 @@ Care should be taken when using the 'min' option- the DCG "parser" can take a
 very long time to find a correct string of the required *minimum* length
 (because it will generate all possible strings of at least that length). 
 
-If this happens (or if anything else goes wrong) you can always stop execution
-with Ctrl-D.
+If this happens (or if anything else goes wrong) you can always try to stop
+execution with Ctrl-D (at the Swi top-level); this is usually enough.
 
 ### Query interface: known bugs 
 There is a bug in the query interface module, that may result in the following
-error right after you enter a sentence\_completion/2 query for the first time in
+error right after you enter a sentence_completion/2 query for the first time in
 a single Prolog session:
 
 ```
@@ -430,7 +425,7 @@ detailed in the documentation of the configuration module.
 
 For a short example, to train a grammar in Greibach Normal Form, set the
 following options (and enter "reload") then train a grammar with
-"grammar\_printing" as before:
+"grammar_printing" as before:
 
 ```
 graph_arity(2).
@@ -460,7 +455,7 @@ bootstrapping(4,0.3).
 ```
 
 ### Grammar Evaluation
-Predicates in module grammar\_evaluation were used to produce the results
+Predicates in module grammar_evaluation were used to produce the results
 reported in Section 5 of the dissertation report. 
 
 To perform nested k-fold cross-validation, train a stochastic right-regular