Самый быстрый путь, возможный считать содержание файла

Хорошо, я ищу самый быстрый способ считать все содержание файла через php с filepath на сервере, также эти файлы могут быть огромными. Таким образом, очень важно, чтобы это сделало ТОЛЬКО ДЛЯ ЧТЕНИЯ к нему максимально быстро.

Читает его линию за линией быстрее, чем чтение всего содержания? Хотя, я не забываю читать на этом некоторых, то чтение всего содержания может произвести ошибки для огромных файлов. Действительно ли это верно?

28
задан tshepang 22 January 2014 в 09:25
поделиться

5 ответов

Если вы хотите загрузить полное содержимое файла в переменную PHP, самый простой (и, вероятно, самый быстрый) способ будет file_get_contents .

Но если вы работаете с большими файлами, загрузка всего файла в память может быть не такой уж хорошей идеей: вы, вероятно, получите ошибку memory_limit , поскольку PHP не позволит вам сценарий для использования более (обычно) пары мегабайт памяти.


Итак, даже если это не самое быстрое решение, чтение файла построчно ( fopen + fgets + fclose ) , и работа с этими строками на лету, без загрузки всего файла в память, может потребоваться ...

35
ответ дан 28 November 2019 в 02:53
поделиться

file_get_contents() является наиболее оптимизированным способом чтения файлов в PHP, однако - поскольку вы читаете файлы в памяти, вы всегда ограничены объемом доступной памяти.

Вы можете выполнить ini_set('memory_limit', -1), если у вас есть соответствующие права, но вы все равно будете ограничены количеством памяти, доступной в вашей системе, это характерно для всех языков программирования.

Единственное решение - читать файл по частям, для этого вы можете использовать file_get_contents() с четвертым и пятым аргументами ($offset и $maxlen - указанными в байтах):

string file_get_contents(string $filename[, bool $use_include_path = false[, resource $context[, int $offset = -1[, int $maxlen = -1]]]])

Вот пример, где я использую эту технику для обслуживания больших файлов загрузки:

public function Download($path, $speed = null)
{
    if (is_file($path) === true)
    {
        set_time_limit(0);

        while (ob_get_level() > 0)
        {
            ob_end_clean();
        }

        $size = sprintf('%u', filesize($path));
        $speed = (is_int($speed) === true) ? $size : intval($speed) * 1024;

        header('Expires: 0');
        header('Pragma: public');
        header('Cache-Control: must-revalidate, post-check=0, pre-check=0');
        header('Content-Type: application/octet-stream');
        header('Content-Length: ' . $size);
        header('Content-Disposition: attachment; filename="' . basename($path) . '"');
        header('Content-Transfer-Encoding: binary');

        for ($i = 0; $i <= $size; $i = $i + $speed)
        {
            ph()->HTTP->Flush(file_get_contents($path, false, null, $i, $speed));
            ph()->HTTP->Sleep(1);
        }

        exit();
    }

    return false;
}

Другой вариант - использовать менее оптимизированные функции fopen(), feof(), fgets() и fclose(), специально если вам важно получать сразу целые строки, вот другой пример, который я привел в другом вопросе на StackOverflow для импорта больших SQL-запросов в базу данных:

function SplitSQL($file, $delimiter = ';')
{
    set_time_limit(0);

    if (is_file($file) === true)
    {
        $file = fopen($file, 'r');

        if (is_resource($file) === true)
        {
            $query = array();

            while (feof($file) === false)
            {
                $query[] = fgets($file);

                if (preg_match('~' . preg_quote($delimiter, '~') . '\s*$~iS', end($query)) === 1)
                {
                    $query = trim(implode('', $query));

                    if (mysql_query($query) === false)
                    {
                        echo '<h3>ERROR: ' . $query . '</h3>' . "\n";
                    }

                    else
                    {
                        echo '<h3>SUCCESS: ' . $query . '</h3>' . "\n";
                    }

                    while (ob_get_level() > 0)
                    {
                        ob_end_flush();
                    }

                    flush();
                }

                if (is_string($query) === true)
                {
                    $query = array();
                }
            }

            return fclose($file);
        }
    }

    return false;
}

Какую технику вы используете, будет зависеть от того, что вы пытаетесь сделать (как вы можете видеть на примере функции импорта SQL и функции загрузки), но вам всегда придется читать данные кусками.

15
ответ дан 28 November 2019 в 02:53
поделиться

Вы можете использовать file_get_contents

Пример:

$homepage = file_get_contents('http://www.example.com/');
echo $homepage;
5
ответ дан 28 November 2019 в 02:53
поделиться
$file_handle = fopen("myfile", "r");
while (!feof($file_handle)) {
   $line = fgets($file_handle);
   echo $line;
}
fclose($file_handle);
  1. Откройте файл и сохраните в $file_handle ссылку на сам файл.
  2. Проверьте, не находитесь ли вы уже в конце файла.
  3. Продолжайте читать файл до конца, печатая каждую строку по мере чтения.
  4. Закройте файл.
8
ответ дан 28 November 2019 в 02:53
поделиться

Чтение всего файла за один раз быстрее.

Но огромные файлы могут съесть всю память и вызвать проблемы. В таком случае безопаснее всего читать строку за строкой.

0
ответ дан 28 November 2019 в 02:53
поделиться
Другие вопросы по тегам:

Похожие вопросы: