]> git.sesse.net Git - nageru-docs/commitdiff
Remove overuse of “simply”.
authorSteinar H. Gunderson <sgunderson@bigfoot.com>
Thu, 7 Sep 2023 16:57:25 +0000 (18:57 +0200)
committerSteinar H. Gunderson <sgunderson@bigfoot.com>
Thu, 7 Sep 2023 16:57:25 +0000 (18:57 +0200)
analyzer.rst
audio.rst
futatabi.rst
hdmisdi.rst
intro.rst
monitoring.rst
streaming.rst

index 5496eff859b16bbaf87a7454c5660cfc581c8b82..72305df877d53340ff13f52ff2615140efdbce72 100644 (file)
@@ -12,7 +12,7 @@ and that the entire 0–255 brightness range is both being input and output.
 The **frame analyzer**, available from the video menu,
 can help with this.  It allows you to look at any input, grab a frame (manually
 or periodically), and then hover over specific pixels to look at their RGB
-values. When you're done, simply close it, and it will stop grabbing frames.
+values. When you're done, close it, and it will stop grabbing frames.
 
 .. _synthetictests:
 
@@ -20,7 +20,7 @@ Synthetic tests and common problems
 -----------------------------------
 
 If your input is synthetic, such as from a computer, you may want to use an
-image such as this one as your test source (simply right-click and save):
+image such as this one as your test source (right-click and save):
 
 .. image:: images/wedges.png
 
@@ -31,7 +31,7 @@ with slightly fewer steps: 255, 238, 221, 204, 187, 170, 153, 136,
 119, 102, 85, 68, 51, 34, 17, 0). (You can also use any other picture
 where you know the right pixel values, of course.)
 
-Using the frame analyzer, you can simply look at each value to see if the input
+Using the frame analyzer, you can look at each value to see if the input
 matches the expected values. Being off-by-one (or even occasionally two)
 is normal due to Y'CbCr rounding errors, but more than this indicates that
 something in your chain is doing something wrong with the pixel values.
@@ -53,7 +53,7 @@ Common errors include:
 
 Nageru cannot correct arbitrary input problems, but the most common ones
 can be fixed by selecting a different *input interpretation* for the card in question.
-Simply right-click the input, and you can choose from a variety of
+Right-click the input, and you can choose from a variety of
 different ones. Optionally, check the settings on your sending device
 to see if they can be corrected, as this is usually a better choice
 than forcing Nageru to interpret the output in a nonstandard way.
index 24c71baba8c5ebf868619323e15c68e34d7905e3..bb6876ecb85f5da3cf9c99a0428ab4ff4025dbf8 100644 (file)
--- a/audio.rst
+++ b/audio.rst
@@ -321,7 +321,7 @@ headroom, while some are much more variable and need tighter settings.
 Nearly at the top (and nearly first in the chain), there's the EQ section. The **lo-cut** is again
 well-known from the simple audio mode (the filter is separate for each
 bus, the cutoff **frequency** is the same across all buses),
-but there's now also a simple **three-band EQ** per bus. Simply ask the speaker
+but there's now also a simple **three-band EQ** per bus. Ask the speaker
 to talk normally for a bit, and tweak the controls until it sounds good.
 People have different voices and different ways of holding the microphone,
 and if you have a reasonable ear, you can use the EQ to your advantage to
@@ -414,7 +414,7 @@ Unless you have a reference sheet for your MIDI controller, specifying which
 controller and number numbers the different physical knobs and faders
 emit, inputting these numbers by hand can be a frustrating procedure.
 (Actually, even with a reference sheet, it probably is.) Thus, the preferred
-way is by autosensing; simply select the given mapping with the mouse
+way is by autosensing; select the given mapping with the mouse
 and use the control you want to bind it to, and Nageru automatically
 fills it in.
 
@@ -464,7 +464,7 @@ same position for the two controllers. (There is a similar problem
 when starting up Nageru for the first time, where the controllers
 are not necessarily in the place matching Nageru's startup settings.)
 Some more expensive controllers support *motorized faders*, where
-the host can simply tell the control to move to the right place
+the host can tell the control to move to the right place
 and thus solve the problem, but Nageru does not currently support them.
 
 .. image:: images/highlight.png
index a0aa06a3c2c2e82cd7114b2af3c45b4a724fd4f7..a16d3922fb35224cd86f54435908677e9d2ad8ae 100644 (file)
@@ -248,7 +248,7 @@ Instant clips
 
 Like the previous section explained how you generally would know the *start*
 of an interesting event (at least if discarding most of the candidates),
-you would be even more sure about the *end* of one. Thus, you can simply wait
+you would be even more sure about the *end* of one. Thus, you can wait
 until something interesting has happened, and then click cue-in immediately
 followed by cue-out. This will give you a clip of near zero length, ending
 at the right point. Then, edit this clip to set the starting point as needed,
@@ -338,7 +338,7 @@ In particular:
 
 Many players may also be confused by the fact that the resolution can change
 from frame to frame; this is because for original (uninterpolated) frames,
-Futatabi will simply output the received JPEG frame directly to the output
+Futatabi will output the received JPEG frame directly to the output
 stream, which can be a different resolution from the interpolated frames.
 
 Also, even though Futatabi exists to make a fixed-framerate stream out of
index 91f6c9f0f6fa26b4ba1406f25649e6060788276e..e04b8b720bcb96c51dd2fe2e2befbd606b98705b 100644 (file)
@@ -15,7 +15,7 @@ output, turning it into a simple, reasonably low-latency audio/video switcher.
 Setting up HDMI/SDI output
 --------------------------
 
-Turning on HDMI/SDI output is simple; just right-click on the live view and
+To turn on HDMI/SDI output, right-click on the live view and
 select the output card. (Equivalently, you can access the same functionality
 from the *Video* menu in the regular menu bar, or you can give the
 *--output-card=* parameter on the command line.) Currently, this is supported
@@ -171,7 +171,7 @@ Measuring latency
 
 In order to optimize latency, it can be useful to measure it, but for most
 people, it's hard to measure delays precisely enough to distinguish reliably
-between e.g. 70 and 80 milliseconds by eye alone. Nageru gives you some simple
+between e.g. 70 and 80 milliseconds by eye alone. Nageru gives you some
 tools that will help.
 
 The most direct is the flag *--print-video-latency*. This samples, for every
index 8ed78ee4e2ea7d04e8fa5197ae2ebb330d5524d3..308bcee1737b78fd0d42b2bd56096efeace96329 100644 (file)
--- a/intro.rst
+++ b/intro.rst
@@ -82,7 +82,7 @@ usually give you a newer version). It currently need:
 
      http://opensource.spotify.com/cefbuilds/index.html
 
-   Simply download the right build for your platform (the “minimal” build
+   Download the right build for your platform (the “minimal” build
    is fine) and add -Dcef_dir=<path>/cef_binary_X.XXXX.XXXX.XXXXXXXX_linux64
    on the meson command line (substituting X with the real version as required).
 
index 4e9a6fbaf9c6700792831deeb0b8c83cc3d1f7d2..12f5cbc56dd73cadc09edc326003136ceb9e3703 100644 (file)
@@ -7,7 +7,7 @@ to verify everything is OK. Nageru supports native
 `Prometheus <https://prometheus.io/>`_ metrics.
 
 This section is not intended to explain Prometheus; for that, see the Prometheus
-documentation. You do not need a separate exporter for Nageru, you simply point
+documentation. You do not need a separate exporter for Nageru; point
 Prometheus to the same HTTP port as is used for your stream, and it will fetch
 all metrics from the /metrics endpoint.
 
index d34600a52445643cd049fb8f23824002514cae38..05ebfbc018eb4d7c17a56a63331351213eff7e5a 100644 (file)
@@ -181,7 +181,7 @@ for delivering streams to end users. For this, a natural choice is
 `Cubemap <http://cubemap.sesse.net/>`__; Cubemap scales without problems
 to multiple 10 Gbit/sec NICs on a quite normal machine, and you can easily
 add multiple Cubemap servers if so needed. Nageru has native support for
-Cubemap's *Metacube2* transport encoding; simply add “.metacube” to
+Cubemap's *Metacube2* transport encoding; to use it, add “.metacube” to
 to the end of the URL, e.g. with a cubemap.config fragment like this::
 
   stream /stream.mp4 src=http://yourserver.example.org:9094/stream.mp4.metacube pacing_rate_kbit=3000 force_prebuffer=1500000