Почему операции std :: string работают плохо?

Я провел тест для сравнения строковых операций на нескольких языках для выбора языка для серверного приложения. Результаты казались нормальными, пока я, наконец, не попробовал C ++, что меня очень удивило. Поэтому мне интересно, не пропустил ли я какую-нибудь оптимизацию, и я обращаюсь за помощью.

Тест состоит в основном из интенсивных строковых операций, включая конкатенацию и поиск. Тест проводится на Ubuntu 11.10 amd64 с версией GCC 4.6.1. Это Dell Optiplex 960 с оперативной памятью 4G и четырехъядерным процессором.

в Python (2.7.2):

def test():
    x = ""
    limit = 102 * 1024
    while len(x) < limit:
        x += "X"
        if x.find("ABCDEFGHIJKLMNOPQRSTUVWXYZ", 0) > 0:
            print("Oh my god, this is impossible!")
    print("x's length is : %d" % len(x))

test()

, что дает результат:

x's length is : 104448

real    0m8.799s
user    0m8.769s
sys     0m0.008s

в Java (OpenJDK-7):

public class test {
    public static void main(String[] args) {
        int x = 0;
        int limit = 102 * 1024;
        String s="";
        for (; s.length() < limit;) {
            s += "X";
            if (s.indexOf("ABCDEFGHIJKLMNOPQRSTUVWXYZ") > 0)
            System.out.printf("Find!\n");
        }
        System.out.printf("x's length = %d\n", s.length());
    }
}

, что дает результат:

x's length = 104448

real    0m50.436s
user    0m50.431s
sys     0m0.488s

в Javascript (Nodejs 0.6.3)

function test()
{
    var x = "";
    var limit = 102 * 1024;
    while (x.length < limit) {
        x += "X";
        if (x.indexOf("ABCDEFGHIJKLMNOPQRSTUVWXYZ", 0) > 0)
            console.log("OK");
    }
    console.log("x's length = " + x.length);
}();

что дает результат:

x's length = 104448

real    0m3.115s
user    0m3.084s
sys     0m0.048s

в C ++ (g ++ -Ofast)

Неудивительно, что Nodejs работает лучше, чем Python или Java. Но я ожидал, что libstdc ++ даст намного лучшую производительность, чем Nodejs, результат которого меня действительно удивил.

#include <iostream>
#include <string>
using namespace std;
void test()
{
    int x = 0;
    int limit = 102 * 1024;
    string s("");
    for (; s.size() < limit;) {
        s += "X";
        if (s.find("ABCDEFGHIJKLMNOPQRSTUVWXYZ", 0) != string::npos)
            cout << "Find!" << endl;
    }
    cout << "x's length = " << s.size() << endl;
}

int main()
{
    test();
}

, что дает результат:

x length = 104448

real    0m5.905s
user    0m5.900s
sys     0m0.000s

Краткое описание

Хорошо, теперь давайте посмотрим на сводку:

  • javascript на Nodejs (V8): 3.1s
  • Python на CPython 2.7.2: 8.8s
  • C ++ с libstdc ++: 5.9s
  • Java на OpenJDK 7: 50.4s

Удивительно! Я пробовал "-O2, -O3" на C ++, но это помогло. С ++ кажется, что производительность javascript в V8 составляет всего 50%, и даже хуже, чем у CPython. Может ли кто-нибудь объяснить мне, пропустил ли я некоторую оптимизацию в GCC или это просто так? Большое спасибо.

59
задан 一二三 29 November 2011 в 11:36
поделиться