/ * while loop
5 баксов
1 шоколад = 1 бакс
while my money is greater than 1 bucks
select chocolate
pay 1 bucks to the shopkeeper
money = money - 1
end
приходят домой и не могут идти во время магазина, потому что мои деньги = 0 баксов * /
#include
int main(){
int money = 5;
while( money >= 1){
printf("inside the shopk and selecting chocolate\n");
printf("after selecting chocolate paying 1 bucks\n");
money = money - 1 ;
printf("my remaining moeny = %d\n", money);
printf("\n\n");
}
printf("dont have money cant go inside the shop, money = %d", money);
return 0;
}
бесконечные деньги
while( codition ){ // condition will always true ....infinite loop
statement(s)
}
, пожалуйста, посетите это видео для лучшего понимания https://www.youtube.com/watch?v = eqDv2wxDMJ8 & Amp; T = 25s
--packages
: bin/pyspark --packages group:name:version
или комбинировать driver-class-path
и jars
bin/pyspark --driver-class-path $PATH_TO_DRIVER_JAR --jars $PATH_TO_DRIVER_JAR
Эти свойства также могут быть установлены с использованием переменной среды PYSPARK_SUBMIT_ARGS
до запуска экземпляра JVM или с помощью conf/spark-defaults.conf
для установки spark.jars.packages
или spark.jars
/ spark.driver.extraClassPath
. append
: добавить содержимое этого: class: DataFrame
к существующим данным. overwrite
: Перезаписать существующие данные. ignore
: тихо игнорируйте эту операцию, если данные уже существуют. error
(случай по умолчанию): выдать исключение, если данные уже существуют. Усиления или другие мелкозернистые модификации не поддерживаются mode = ...
# You can encode credentials in URI or pass
# separately using properties argument
# of jdbc method or options
url = "jdbc:postgresql://localhost/foobar"
properties = {
"user": "foo",
"password": "bar"
}
DataFrame.write.jdbc
df.write.jdbc(url=url, table="baz", mode=mode, properties=properties)
(подробнее см. pyspark.sql.DataFrameWriter
). Известные проблемы :
--packages
(java.sql.SQLException: No suitable driver found for jdbc: ...
) Предполагая, что для решения проблемы нет несоответствия версии драйвера, вы можете добавить класс driver
в properties
. Например: properties = {
...
"driver": "org.postgresql.Driver"
}
df.write.format("jdbc").options(...).save()
может привести к: java.lang.RuntimeException: org.apache.spark.sql.execution.datasources.jdbc.DefaultSource не позволяет создавать таблицу как выбранную. Решение неизвестно. df._jdf.insertIntoJDBC(url, "baz", True)
sqlContext.read.jdbc
: sqlContext.read.jdbc(url=url, table="baz", properties=properties)
или sqlContext.read.format("jdbc")
: (sqlContext.read.format("jdbc")
.options(url=url, dbtable="baz", **properties)
.load())
Известные проблемы и gotchas :
dbtable
/ table
действительным подзапросом. См. Например: Работает ли искривление предиката с JDBC? Более одного часа для выполнения pyspark.sql.DataFrame.take (4) column
(должно быть IntegeType
), lowerBound
, upperBound
, numPartitions
. Предоставьте список взаимоисключающих предикатов predicates
, по одному для каждого требуемого раздела. --packages
выберите желаемую версию и скопируйте данные со вкладки Gradle в форме compile-group:name:version
, заменяющей соответствующие поля) или Центральный репозиторий Maven : PostgreSQL MySQL Отправьте эту ссылку, чтобы загрузить jdbc для postgres и следуйте инструкциям по загрузке jar-файла
https://jaceklaskowski.gitbooks.io/mastering-apache-spark/exercises/spark- Файл-файл-файл-dataframe-jdbc-postgresql.html будет загружен на пути, подобном этому. "/home/anand/.ivy2/jars/org.postgresql_postgresql-42.1.1.jar"
Если ваша искробезопасная версия 2
from pyspark.sql import SparkSession
spark = SparkSession.builder
.appName("sparkanalysis")
.config("spark.driver.extraClassPath",
"/home/anand/.ivy2/jars/org.postgresql_postgresql42.1.1.jar")
.getOrCreate()
//for localhost database//
pgDF = spark.read \
.format("jdbc") \
.option("url", "jdbc:postgresql:postgres") \
.option("dbtable", "public.user_emp_tab") \
.option("user", "postgres") \
.option("password", "Jonsnow@100") \
.load()
print(pgDF)
pgDF.filter(pgDF["user_id"]>5).show()
сохранит файл как питон и запустите «python соответствующееfilename.py»
Загрузите драйвер mysql-connector-java и сохраните в папке с искровым jar, обратите внимание на приведенный ниже код python, записывая данные в «acotr1», мы должны создать структуру таблицы acotr1 в базе данных mysql
spark = SparkSession .builder.appName ( "прасадад") мастер ( 'локального') конфигурации ( 'spark.driver.extraClassPath', '. D:. \ искрового 2.1.0-бен-hadoop2.7 \ баночка \ MySQL-разъем-Java -5.1.41-bin.jar '). GetOrCreate ()
sc = spark.sparkContext
из pyspark.sql import SQLContext
sqlContext = SQLContext ( sc)
df = sqlContext.read.format ("jdbc") .options (url = "jdbc: mysql: // localhost: 3306 / sakila", driver = "com.mysql.jdbc.Driver ", dbtable =" actor ", user =" root ", password =" Ramyam01 "). load ()
mysql_url =" jdbc: mysql: // localhost: 3306 / sakila? user = root & amp; password = Ramyam01 "
df.write.jdbc (mysql_url, table =" actor1 ", mode =" append ")