]> git.sesse.net Git - kdenlive/commitdiff
Const'ify. Use QLatin1String
authorMontel Laurent <montel@kde.org>
Mon, 20 May 2013 19:55:44 +0000 (21:55 +0200)
committerMontel Laurent <montel@kde.org>
Mon, 20 May 2013 19:55:44 +0000 (21:55 +0200)
src/rotoscoping/rotowidget.cpp
src/rotoscoping/rotowidget.h
src/scopes/audioscopes/abstractaudioscopewidget.cpp
src/scopes/audioscopes/abstractaudioscopewidget.h
src/scopes/audioscopes/audiosignal.cpp
src/scopes/audioscopes/audiosignal.h
src/scopes/audioscopes/audiospectrum.cpp
src/scopes/audioscopes/audiospectrum.h
src/scopes/audioscopes/spectrogram.cpp
src/scopes/audioscopes/spectrogram.h

index 127df07b68871608d73be0054ebc127d4bca7220..e8d83ec3a8a42d2648c013adc2b91ad0cc714d6a 100644 (file)
@@ -324,7 +324,7 @@ void RotoWidget::keyframeTimelineFullUpdate()
     }
 }
 
-void RotoWidget::setupTrackingListen(ItemInfo info)
+void RotoWidget::setupTrackingListen(const ItemInfo &info)
 {
     if (info.startPos < GenTime()) {
         // TODO: track effects
index 444d673ec2b8144431eedf76bea950e3622bb7b7..f3e8d9bd4c2d7dfd15ddc282960e0196be7c8fb2 100644 (file)
@@ -81,7 +81,7 @@ private:
     QList <BPoint> getPoints(int keyframe);
 
     /** @brief Adds tracking_finished as listener for "tracking-finished" event in MLT rotoscoping filter. */
-    void setupTrackingListen(ItemInfo info);
+    void setupTrackingListen(const ItemInfo &info);
 
     /** @brief Passes list of keyframe positions to keyframe timeline widget. */
     void keyframeTimelineFullUpdate();
index 74ad52004574e732d6e16f4e18cf2ca9b7a043e8..86ebb3aa86ac2e31752e919f2d7044f14262d5f6 100644 (file)
@@ -36,7 +36,7 @@ AbstractAudioScopeWidget::AbstractAudioScopeWidget(bool trackMouse, QWidget *par
 {
 }
 
-void AbstractAudioScopeWidget::slotReceiveAudio(QVector<int16_t> sampleData, int freq, int num_channels, int num_samples)
+void AbstractAudioScopeWidget::slotReceiveAudio(const QVector<int16_t>& sampleData, int freq, int num_channels, int num_samples)
 {
 #ifdef DEBUG_AASW
     qDebug() << "Received audio for " << widgetName() << ".";
@@ -51,11 +51,13 @@ void AbstractAudioScopeWidget::slotReceiveAudio(QVector<int16_t> sampleData, int
     AbstractScopeWidget::slotRenderZoneUpdated();
 }
 
-AbstractAudioScopeWidget::~AbstractAudioScopeWidget() {}
+AbstractAudioScopeWidget::~AbstractAudioScopeWidget()
+{
+}
 
 QImage AbstractAudioScopeWidget::renderScope(uint accelerationFactor)
 {
-    int newData = m_newData.fetchAndStoreAcquire(0);
+    const int newData = m_newData.fetchAndStoreAcquire(0);
 
     return renderAudioScope(accelerationFactor, m_audioFrame, m_freq, m_nChannels, m_nSamples, newData);
 }
index 54bf7da064bdbb8b132d2419e51cbfa0c930924e..15bb974fcc487dad2fd8fb25d4dc053c2b9902ac 100644 (file)
@@ -33,7 +33,7 @@ public:
     virtual ~AbstractAudioScopeWidget();
 
 public slots:
-    void slotReceiveAudio(QVector<int16_t> sampleData, int freq, int num_channels, int num_samples);
+    void slotReceiveAudio(const QVector<int16_t> &sampleData, int freq, int num_channels, int num_samples);
 
 protected:
     /** @brief This is just a wrapper function, subclasses can use renderAudioScope. */
@@ -44,7 +44,7 @@ protected:
         when calculation has finished, to allow multi-threading.
         accelerationFactor hints how much faster than usual the calculation should be accomplished, if possible. */
     virtual QImage renderAudioScope(uint accelerationFactor,
-                               const QVector<int16_t> audioFrame, const int freq, const int num_channels, const int num_samples,
+                               const QVector<int16_t> &audioFrame, const int freq, const int num_channels, const int num_samples,
                                const int newData) = 0;
 
     int m_freq;
index 6e9643a2f04139668d0102ed31892ac2708e13c6..989f90b3750738aedc38c76498adc4c37818c6e0 100644 (file)
@@ -45,7 +45,7 @@ AudioSignal::~AudioSignal()
 {
 }
 
-QImage AudioSignal::renderAudioScope(uint, const QVector<int16_t> audioFrame,
+QImage AudioSignal::renderAudioScope(uint, const QVector<int16_t> &audioFrame,
                                      const int, const int num_channels, const int samples, const int)
 {
     QTime start = QTime::currentTime();
index bf8b7a67da820610f353028b680f14f1d14824f5..d555cc5714da548743172b186af8f8c00ae426e7 100644 (file)
@@ -43,7 +43,7 @@ public:
     QRect scopeRect();
     QImage renderHUD(uint accelerationFactor);
     QImage renderBackground(uint accelerationFactor);
-    QImage renderAudioScope(uint accelerationFactor, const QVector<int16_t> audioFrame, const int, const int num_channels, const int samples, const int);
+    QImage renderAudioScope(uint accelerationFactor, const QVector<int16_t> &audioFrame, const int, const int num_channels, const int samples, const int);
 
     QString widgetName() const { return "audioSignal"; }
     bool isHUDDependingOnInput() const { return false; }
index e60ceab038dc7774e8d880c650d527e52bd930f1..a4ee112ef1cadfc5e2beb170780142c25b0105c1 100644 (file)
@@ -150,14 +150,32 @@ void AudioSpectrum::writeConfig()
     scopeConfig.sync();
 }
 
-QString AudioSpectrum::widgetName() const { return QString("AudioSpectrum"); }
-bool AudioSpectrum::isBackgroundDependingOnInput() const { return false; }
-bool AudioSpectrum::isScopeDependingOnInput() const { return true; }
-bool AudioSpectrum::isHUDDependingOnInput() const { return false; }
+QString AudioSpectrum::widgetName() const
+{
+    return QLatin1String("AudioSpectrum");
+}
 
-QImage AudioSpectrum::renderBackground(uint) { return QImage(); }
+bool AudioSpectrum::isBackgroundDependingOnInput() const
+{
+    return false;
+}
+
+bool AudioSpectrum::isScopeDependingOnInput() const
+{
+    return true;
+}
+
+bool AudioSpectrum::isHUDDependingOnInput() const
+{
+    return false;
+}
+
+QImage AudioSpectrum::renderBackground(uint)
+{
+    return QImage();
+}
 
-QImage AudioSpectrum::renderAudioScope(uint, const QVector<int16_t> audioFrame, const int freq, const int num_channels,
+QImage AudioSpectrum::renderAudioScope(uint, const QVector<int16_t> &audioFrame, const int freq, const int num_channels,
                                        const int num_samples, const int)
 {
     if (
index 94c8b2940c684df96cff6a2b4df33e63515d7a54..e35176313f10c1e502386639e04ac4741744a71a 100644 (file)
@@ -51,7 +51,7 @@ protected:
     ///// Implemented methods /////
     QRect scopeRect();
     QImage renderHUD(uint accelerationFactor);
-    QImage renderAudioScope(uint accelerationFactor, const QVector<int16_t> audioFrame, const int freq, const int num_channels, const int num_samples, const int newData);
+    QImage renderAudioScope(uint accelerationFactor, const QVector<int16_t> &audioFrame, const int freq, const int num_channels, const int num_samples, const int newData);
     QImage renderBackground(uint accelerationFactor);
     bool isHUDDependingOnInput() const;
     bool isScopeDependingOnInput() const;
index 0edc6dff102b3eaf23e9c6ab4ed6d69a2a27beb1..87b6c6a4e6338017f91ae22b51f5422eb487c117 100644 (file)
@@ -140,7 +140,10 @@ void Spectrogram::writeConfig()
     scopeConfig.sync();
 }
 
-QString Spectrogram::widgetName() const { return QString("Spectrogram"); }
+QString Spectrogram::widgetName() const
+{
+    return QLatin1String("Spectrogram");
+}
 
 QRect Spectrogram::scopeRect()
 {
@@ -301,7 +304,7 @@ QImage Spectrogram::renderHUD(uint)
         return QImage();
     }
 }
-QImage Spectrogram::renderAudioScope(uint, const QVector<int16_t> audioFrame, const int freq,
+QImage Spectrogram::renderAudioScope(uint, const QVector<int16_t> &audioFrame, const int freq,
                                      const int num_channels, const int num_samples, const int newData) {
     if (
             audioFrame.size() > 63
index a8255e705c032a6f137ad82bfe838b271b895d07..4274eeb15297785c1d701e2327b1c0718caae678 100644 (file)
@@ -45,7 +45,7 @@ protected:
     ///// Implemented methods /////
     QRect scopeRect();
     QImage renderHUD(uint accelerationFactor);
-    QImage renderAudioScope(uint accelerationFactor, const QVector<int16_t> audioFrame, const int freq, const int num_channels, const int num_samples, const int newData);
+    QImage renderAudioScope(uint accelerationFactor, const QVector<int16_t> &audioFrame, const int freq, const int num_channels, const int num_samples, const int newData);
     QImage renderBackground(uint accelerationFactor);
     bool isHUDDependingOnInput() const;
     bool isScopeDependingOnInput() const;