Полностью возможно!
Различные части вашего графика могут быть назначены на разные графические процессоры (и CPU). Вдохновленный Используя графические процессоры , вы должны иметь возможность сделать что-то вроде:
`with tf.device('/device:GPU:2'):`
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
`with tf.device('/device:GPU:1'):`
c = tf.matmul(a, b)
Ops и тензоры могут быть произвольно назначены для процессоров и графических процессоров (помните, конечно, что ваша производительность может значительно повлиять на необходимость перетасовки большого количества данных между различными аппаратными средствами).
Кроме того, Distributed Tensorflow позволяет назначать операторы и тензоры вокруг нескольких систем на сеть и заботится о сантехнике для вас.
IIUC: Вы можете сделать это следующим образом,
string_dict = {
char: char.upper() if char == char.lower() else char.lower()
for char in (string.lower() + string.upper())
}
Еще один способ сделать то же самое
import string
d=dict(zip(string.ascii_lowercase[:3],string.ascii_uppercase[:3]))
d.update(dict(zip(string.ascii_uppercase[:3],string.ascii_lowercase[:3])))
Используйте swapcase :
s = 'abc'
result = dict(zip(s + s.swapcase(), s.swapcase() + s))
print(result)
Выход
{'C': 'c', 'b': 'B', 'B': 'b', 'a': 'A', 'A': 'a', 'c': 'C'}