Что поставить в блоке улавливания в производстве [закрыто]

Удачи!

@see https://github.com/mongodb/mongo-hadoop/wiki/Spark-Usage

from pyspark import SparkContext, SparkConf

import pymongo_spark
# Important: activate pymongo_spark.
pymongo_spark.activate()


def main():
    conf = SparkConf().setAppName("pyspark test")
    sc = SparkContext(conf=conf)

    # Create an RDD backed by the MongoDB collection.
    # This RDD *does not* contain key/value pairs, just documents.
    # If you want key/value pairs, use the mongoPairRDD method instead.
    rdd = sc.mongoRDD('mongodb://localhost:27017/db.collection')

    # Save this RDD back to MongoDB as a different collection.
    rdd.saveToMongoDB('mongodb://localhost:27017/db.other.collection')

    # You can also read and write BSON:
    bson_rdd = sc.BSONFileRDD('/path/to/file.bson')
    bson_rdd.saveToBSON('/path/to/bson/output')

if __name__ == '__main__':
    main()

-1
задан Barmar 15 January 2019 в 21:26
поделиться

1 ответ

Обычно в производстве мы использовали какой-то механизм регистрации ошибок, и тот, который я использовал больше всего ELMAH . Или самостоятельно внедрите какой-нибудь другой механизм регистрации и зарегистрируйте его, чтобы вы могли проверить его в любое время.

0
ответ дан Bergi 15 January 2019 в 21:26
поделиться
Другие вопросы по тегам:

Похожие вопросы: