Есть много способов решить этот вопрос, который использует некоторую арифметику для преобразования из диапазонов символов ascii 0-9 и a-f (или A-F) в двоичный файл. Я хотел найти решение, которое использует только таблицу поиска и контрольную таблицу, вместо решения, использующего вместо этого арифметику. Как ни странно, ни один из вышеперечисленных ответов не выполняет чисто арифметическое решение, и некоторые ответы даже предполагают, что «преобразование в двоичный» означает преобразование в строку ascii символов «0» и «1».
Давайте сначала сделаем некоторые настройки. Во-первых, мы хотим иметь все тестовые данные в памяти, чтобы мы избегали диск ввода-вывода, влияющего на тест. Вот как я создаю заголовок с массивом символов «testdata» из 104857600 байт, примерно 105 МБ. Поскольку вопрос заключался в том, как конвертировать файлы, наша реализация должна быть быстрой на больших данных.
$ { printf "char *testdata =\""; cat /dev/urandom \
| tr -d -c "0123456789abcdefABCDEF" \
| dd count=100 iflag=fullblock bs=1M; printf "\";\n" } > testdata.h
Затем мы создаем таблицы поиска. Я вижу два возможных способа решения этой проблемы с помощью таблицы поиска. Либо таблица поиска отображает отдельные шестнадцатеричные символы ascii в половину байт или отображает два шестнадцатеричных символа в полный байт. В первом случае таблица поиска должна содержать 256 записей. В последнем случае таблица поиска должна иметь 256 * 256 = 65536 записей. Мы можем уменьшить размер последнего, осознав, что первый бит первого байта никогда не будет использоваться. Поэтому нам нужна только таблица поиска 128 * 256 = 32768 записей. Поскольку для этого решения также требуется дополнительный шаг вычисления (с использованием битовой маски), мы будем сравнивать оба. В результате мы получаем следующие тестовые примеры:
Первая таблица поиска легко сгенерирована с использованием некоторого python:
#!/usr/bin/env python
import sys,struct
sys.stdout.write("unsigned char base16_decoding_table1[256] = {\n")
for i in xrange(256):
try:
j = str(int(chr(i), 16))
except:
j = '0'
sys.stdout.write(j+',')
sys.stdout.write("};\n")
sys.stdout.write("\n")
l = 128*256*["0"]
for a in ['0','1','2','3','4','5','6','7','8','9','a','b','c','d','e','f','A','B','C','D','E','F']:
for b in ['0','1','2','3','4','5','6','7','8','9','a','b','c','d','e','f','A','B','C','D','E','F']:
l[struct.unpack("<H", a+b)[0]] = str(int(a+b, 16))
line = "unsigned char base16_decoding_table2[%d] = {"%(128*256)
for e in l:
line += e+","
if len(line) > 70:
sys.stdout.write(line+"\n")
line = ""
sys.stdout.write(line+"};\n")
sys.stdout.write("\n")
l = 256*256*["0"]
for a in ['0','1','2','3','4','5','6','7','8','9','a','b','c','d','e','f','A','B','C','D','E','F']:
for b in ['0','1','2','3','4','5','6','7','8','9','a','b','c','d','e','f','A','B','C','D','E','F']:
l[struct.unpack("<H", a+b)[0]] = str(int(a+b, 16))
line = "unsigned char base16_decoding_table3[%d] = {"%(256*256)
for e in l:
line += e+","
if len(line) > 70:
sys.stdout.write(line+"\n")
line = ""
sys.stdout.write(line+"};\n")
И затем:
python gen.py > base16_decoding_table.h
Теперь мы можем написать код C для тестирования.
#include <stdio.h>
#include <time.h>
#include <inttypes.h>
#include "testdata.h"
#include "base16_decoding_table.h"
#define TESTDATALEN 104857600
/* the resulting binary string is half the size of the input hex string
* because every two hex characters map to one byte */
unsigned char result[TESTDATALEN/2];
void test1()
{
size_t i;
char cur;
unsigned char val;
for (i = 0; i < TESTDATALEN; i++) {
cur = testdata[i];
if (cur >= 97) {
val = cur - 97 + 10;
} else if (cur >= 65) {
val = cur - 65 + 10;
} else {
val = cur - 48;
}
/* even characters are the first half, odd characters the second half
* of the current output byte */
if (i%2 == 0) {
result[i/2] = val << 4;
} else {
result[i/2] |= val;
}
}
}
void test2()
{
size_t i;
char cur;
unsigned char val;
for (i = 0; i < TESTDATALEN; i++) {
cur = testdata[i];
val = base16_decoding_table1[(int)cur];
/* even characters are the first half, odd characters the second half
* of the current output byte */
if (i%2 == 0) {
result[i/2] = val << 4;
} else {
result[i/2] |= val;
}
}
}
void test3()
{
size_t i;
uint16_t *cur;
unsigned char val;
for (i = 0; i < TESTDATALEN; i+=2) {
cur = (uint16_t*)(testdata+i);
// apply bitmask to make sure that the first bit is zero
val = base16_decoding_table2[*cur & 0x7fff];
result[i/2] = val;
}
}
void test4()
{
size_t i;
uint16_t *cur;
unsigned char val;
for (i = 0; i < TESTDATALEN; i+=2) {
cur = (uint16_t*)(testdata+i);
val = base16_decoding_table3[*cur];
result[i/2] = val;
}
}
#define NUMTESTS 1000
int main() {
struct timespec before, after;
unsigned long long checksum;
int i;
double elapsed;
clock_gettime(CLOCK_MONOTONIC, &before);
for (i = 0; i < NUMTESTS; i++) {
test1();
}
clock_gettime(CLOCK_MONOTONIC, &after);
checksum = 0;
for (i = 0; i < TESTDATALEN/2; i++) {
checksum += result[i];
}
printf("checksum: %llu\n", checksum);
elapsed = difftime(after.tv_sec, before.tv_sec) + (after.tv_nsec - before.tv_nsec)/1.0e9;
printf("arithmetic solution took %f seconds\n", elapsed);
clock_gettime(CLOCK_MONOTONIC, &before);
for (i = 0; i < NUMTESTS; i++) {
test2();
}
clock_gettime(CLOCK_MONOTONIC, &after);
checksum = 0;
for (i = 0; i < TESTDATALEN/2; i++) {
checksum += result[i];
}
printf("checksum: %llu\n", checksum);
elapsed = difftime(after.tv_sec, before.tv_sec) + (after.tv_nsec - before.tv_nsec)/1.0e9;
printf("256 entries table took %f seconds\n", elapsed);
clock_gettime(CLOCK_MONOTONIC, &before);
for (i = 0; i < NUMTESTS; i++) {
test3();
}
clock_gettime(CLOCK_MONOTONIC, &after);
checksum = 0;
for (i = 0; i < TESTDATALEN/2; i++) {
checksum += result[i];
}
printf("checksum: %llu\n", checksum);
elapsed = difftime(after.tv_sec, before.tv_sec) + (after.tv_nsec - before.tv_nsec)/1.0e9;
printf("32768 entries table took %f seconds\n", elapsed);
clock_gettime(CLOCK_MONOTONIC, &before);
for (i = 0; i < NUMTESTS; i++) {
test4();
}
clock_gettime(CLOCK_MONOTONIC, &after);
checksum = 0;
for (i = 0; i < TESTDATALEN/2; i++) {
checksum += result[i];
}
printf("checksum: %llu\n", checksum);
elapsed = difftime(after.tv_sec, before.tv_sec) + (after.tv_nsec - before.tv_nsec)/1.0e9;
printf("65536 entries table took %f seconds\n", elapsed);
return 0;
}
Давайте скомпилируем вещь:
$ gcc -O3 -g -Wall -Wextra test.c
И запустите ее:
$ ./a.out
результат:
. Мы можем заключить, что таблицы поиска избили арифметические решения в любое время, а потеря памяти для больших таблиц поиска может стоить дополнительного времени исполнения.
Смотрите на -setDoubleAction:
метод на NSTableView; можно установить это на метод, который назовут точно так же, как нормальная система целевого действия, но при двойном щелчке.
В том методе действия, -clickedRow
будет полезно.
Ответ обновленного Alfred для Swift 5
@IBOutlet weak var searchResultTable: NSTableView!
override func viewDidLoad() {
super.viewDidLoad()
searchResultTable.target = self
searchResultTable.doubleAction = #selector(doubleClickOnResultRow)
}
@objc func doubleClickOnResultRow()
{
print("doubleClickOnResultRow \(searchResultTable.clickedRow)")
}