Хорошо, я ищу самый быстрый способ считать все содержание файла через php с filepath на сервере, также эти файлы могут быть огромными. Таким образом, очень важно, чтобы это сделало ТОЛЬКО ДЛЯ ЧТЕНИЯ к нему максимально быстро.
Читает его линию за линией быстрее, чем чтение всего содержания? Хотя, я не забываю читать на этом некоторых, то чтение всего содержания может произвести ошибки для огромных файлов. Действительно ли это верно?
Если вы хотите загрузить полное содержимое файла в переменную PHP, самый простой (и, вероятно, самый быстрый) способ будет file_get_contents
.
Но если вы работаете с большими файлами, загрузка всего файла в память может быть не такой уж хорошей идеей: вы, вероятно, получите ошибку memory_limit
, поскольку PHP не позволит вам сценарий для использования более (обычно) пары мегабайт памяти.
Итак, даже если это не самое быстрое решение, чтение файла построчно ( fopen
+ fgets
+ fclose
) , и работа с этими строками на лету, без загрузки всего файла в память, может потребоваться ...
file_get_contents()
является наиболее оптимизированным способом чтения файлов в PHP, однако - поскольку вы читаете файлы в памяти, вы всегда ограничены объемом доступной памяти.
Вы можете выполнить ini_set('memory_limit', -1)
, если у вас есть соответствующие права, но вы все равно будете ограничены количеством памяти, доступной в вашей системе, это характерно для всех языков программирования.
Единственное решение - читать файл по частям, для этого вы можете использовать file_get_contents()
с четвертым и пятым аргументами ($offset
и $maxlen
- указанными в байтах):
string file_get_contents(string $filename[, bool $use_include_path = false[, resource $context[, int $offset = -1[, int $maxlen = -1]]]])
Вот пример, где я использую эту технику для обслуживания больших файлов загрузки:
public function Download($path, $speed = null)
{
if (is_file($path) === true)
{
set_time_limit(0);
while (ob_get_level() > 0)
{
ob_end_clean();
}
$size = sprintf('%u', filesize($path));
$speed = (is_int($speed) === true) ? $size : intval($speed) * 1024;
header('Expires: 0');
header('Pragma: public');
header('Cache-Control: must-revalidate, post-check=0, pre-check=0');
header('Content-Type: application/octet-stream');
header('Content-Length: ' . $size);
header('Content-Disposition: attachment; filename="' . basename($path) . '"');
header('Content-Transfer-Encoding: binary');
for ($i = 0; $i <= $size; $i = $i + $speed)
{
ph()->HTTP->Flush(file_get_contents($path, false, null, $i, $speed));
ph()->HTTP->Sleep(1);
}
exit();
}
return false;
}
Другой вариант - использовать менее оптимизированные функции fopen()
, feof()
, fgets()
и fclose()
, специально если вам важно получать сразу целые строки, вот другой пример, который я привел в другом вопросе на StackOverflow для импорта больших SQL-запросов в базу данных:
function SplitSQL($file, $delimiter = ';')
{
set_time_limit(0);
if (is_file($file) === true)
{
$file = fopen($file, 'r');
if (is_resource($file) === true)
{
$query = array();
while (feof($file) === false)
{
$query[] = fgets($file);
if (preg_match('~' . preg_quote($delimiter, '~') . '\s*$~iS', end($query)) === 1)
{
$query = trim(implode('', $query));
if (mysql_query($query) === false)
{
echo '<h3>ERROR: ' . $query . '</h3>' . "\n";
}
else
{
echo '<h3>SUCCESS: ' . $query . '</h3>' . "\n";
}
while (ob_get_level() > 0)
{
ob_end_flush();
}
flush();
}
if (is_string($query) === true)
{
$query = array();
}
}
return fclose($file);
}
}
return false;
}
Какую технику вы используете, будет зависеть от того, что вы пытаетесь сделать (как вы можете видеть на примере функции импорта SQL и функции загрузки), но вам всегда придется читать данные кусками.
Вы можете использовать file_get_contents
Пример:
$homepage = file_get_contents('http://www.example.com/');
echo $homepage;
$file_handle = fopen("myfile", "r");
while (!feof($file_handle)) {
$line = fgets($file_handle);
echo $line;
}
fclose($file_handle);
$file_handle
ссылку на сам файл. Чтение всего файла за один раз быстрее.
Но огромные файлы могут съесть всю память и вызвать проблемы. В таком случае безопаснее всего читать строку за строкой.