Оператор Nullable<bool> == true
неявно проверяет Nullable<bool> == (Nullable<bool>)true
.
Примечание, что Nullable<bool>
само не булевская переменная. Это - обертка для булевской переменной, которая может также быть установлена в NULL.
Вот неприятный обходной путь для преобразования множителя в числовой. (Аналогично и для других типов данных)
old.var <- as.numeric(levels(old.var))[as.numeric(old.var)]
Еще одна уловка. Некоторые пакеты, такие как glmnet, только принимают в качестве входных данных матрицу проектирования и переменную ответа. Если кто-то хочет подогнать модель со всеми взаимодействиями между элементами, он не может использовать формулу «y ~. ^ 2». Использование expand.grid ()
позволяет нам воспользоваться преимуществами мощных операций индексирования массивов и векторов R.
interArray=function(X){
n=ncol(X)
ind=expand.grid(1:n,1:n)
return(X[,ind[,1]]*X[,ind[,2]])
}
> X
X1 X2
1 0.96852363 0.33827107
2 0.08012755 0.69159828
3 0.10167545 0.38119304
4 0.06699458 0.41756415
5 0.08187816 0.09805104
> interArray(X)
X1 X2 X1.1 X2.1
1 0.938038022 0.327623524 0.327623524 0.114427316
2 0.006420424 0.055416073 0.055416073 0.478308177
3 0.010337897 0.038757974 0.038757974 0.145308137
4 0.004488274 0.027974536 0.027974536 0.174359821
5 0.006704033 0.008028239 0.008028239 0.009614007
Один из моих любимых, если не сказать несколько неортодоксальных приемов, - это использование eval ()
и parse ()
. Этот пример, возможно, иллюстрирует, как это может быть полезно
NY.Capital <- 'Albany'
state <- 'NY'
parameter <- 'Capital'
eval(parse(text=paste(state, parameter, sep='.')))
[1] "Albany"
Подобные ситуации возникают чаще, чем нет, и использование eval ()
и parse ()
может помочь в их решении. Конечно, я приветствую любые отзывы об альтернативных способах написания кода.
Одна приятная особенность: для чтения данных используются соединения , которые могут быть локальными файлами, удаленными файлами, доступными через http, каналами из других программ и т. Д.
В качестве простого примера рассмотрим этот доступ для N = 10 случайных целых чисел от min = 100 до max = 200 из random.org (который предоставляет истинные случайные числа на основе атмосферного шума, а не псевдослучайных генератор чисел):
R> site <- "http://random.org/integers/" # base URL
R> query <- "num=10&min=100&max=200&col=2&base=10&format=plain&rnd=new"
R> txt <- paste(site, query, sep="?") # concat url and query string
R> nums <- read.table(file=txt) # and read the data
R> nums # and show it
V1 V2
1 165 143
2 107 118
3 103 132
4 191 100
5 138 185
R>
Кроме того, пакет random предоставляет несколько удобных функций для доступа к random.org .
По совету Дирка я публикую отдельные примеры. Я надеюсь, что они не слишком "милые" [умные, но мне все равно] или тривиальные для этой аудитории.
Линейные модели - это хлеб с маслом R. Когда количество независимых переменных велико, одна имеет две выбор. Во-первых, он использует lm.fit (), который получает матрицу проектирования x и ответ y в качестве аргументов, аналогично Matlab. Недостатком этого подхода является то, что возвращаемое значение - это список объектов (подогнанные коэффициенты, остатки и т. Д.), А не объект класса «lm», который можно красиво резюмировать, использовать для прогнозирования, пошагового выбора и т. Д. Второе подход заключается в создании формулы:
> A
X1 X2 X3 X4 y
1 0.96852363 0.33827107 0.261332257 0.62817021 1.6425326
2 0.08012755 0.69159828 0.087994158 0.93780481 0.9801304
3 0.10167545 0.38119304 0.865209832 0.16501662 0.4830873
4 0.06699458 0.41756415 0.258071616 0.34027775 0.7508766
...
> (f=paste("y ~",paste(names(A)[1:4],collapse=" + ")))
[1] "y ~ X1 + X2 + X3 + X4"
> lm(formula(f),data=A)
Call:
lm(formula = formula(f), data = A)
Coefficients:
(Intercept) X1 X2 X3 X4
0.78236 0.95406 -0.06738 -0.43686 -0.06644
Не знаю, насколько хорошо это известно / нет, но я определенно воспользовался преимуществами передачи по ссылке в средах.
zz <- new.env()
zz$foo <- c(1,2,3,4,5)
changer <- function(blah) {
blah$foo <- 5
}
changer(zz)
zz$foo
Для этого Например, не имеет смысла, почему это может быть полезно, но если вы передаете большие объекты, это может помочь.
?ave
Подмножества 'x []' усредняются, причем каждое подмножество состоит из наблюдения с одинаковыми уровнями факторов. Применение: ave (x, ..., FUN = mean)
Я использую его все время. (например, в этом ответе здесь так )
Способ ускорения кода и устранения циклов for.
вместо циклов for, которые проходят через фрейм данных в поисках значений. просто возьмите подмножество df с этими значениями, намного быстрее.
поэтому вместо:
for(i in 1:nrow(df)){
if (df$column[i] == x) {
df$column2[i] <- y
or any other similiar code
}
}
сделайте что-нибудь вроде этого:
df$column2[df$column1 == x] <- y
эта базовая концепция применяется очень часто и является отличным способом избавиться от циклов for
CrossTable ()
из пакета gmodels
обеспечивает легкий доступ к кросс-таблицам в стиле SAS и SPSS, а также к обычным тестам (Chisq, McNemar и т. Д.) ). По сути, это xtabs ()
с навороченным выводом и некоторыми дополнительными тестами - но он действительно упрощает обмен выводами с язычниками.
Окончательно система ()
.
Возможность иметь доступ ко всем инструментам unix (по крайней мере, под Linux / MacOSX) из среды R быстро стала бесценной в моем повседневном рабочем процессе.
To perform an operation on a number of variables in a data frame. This is stolen from subset.data.frame.
get.vars<-function(vars,data){
nl <- as.list(1L:ncol(data))
names(nl) <- names(data)
vars <- eval(substitute(vars), nl, parent.frame())
data[,vars]
#do stuff here
}
get.vars(c(cyl:hwy,class),mpg)
set.seed ()
устанавливает состояние генератора случайных чисел.
Например:
> set.seed(123)
> rnorm(1)
[1] -0.5604756
> rnorm(1)
[1] -0.2301775
> set.seed(123)
> rnorm(1)
[1] -0.5604756
Я уже публиковал это раньше, но я так часто им пользуюсь, что решил опубликовать еще раз. Это просто небольшая функция для возврата имен и номеров позиций data.frame. В этом нет ничего особенного, чтобы быть уверенным, но я почти никогда не прохожу через сеанс, не используя его несколько раз.
##creates an object from a data.frame listing the column names and location
namesind = function (df) {
temp1=names(df)
temp2=seq(1,length(temp1))
temp3=data.frame(temp1,temp2)
names(temp3)=c("VAR","COL")
return(temp3)
rm(temp1,temp2,temp3)
}
ni <- namesind
head () и tail () для получения первой и последней частей фрейма данных, вектора, матрицы, функции и т. Д. Это быстрый способ проверить, особенно с большими фреймами данных. он загрузился нормально.
Используйте обратные кавычки для ссылки на нестандартные имена.
> df <- data.frame(x=rnorm(5),y=runif(5))
> names(df) <- 1:2
> df
1 2
1 -1.2035003 0.6989573
2 -1.2146266 0.8272276
3 0.3563335 0.0947696
4 -0.4372646 0.9765767
5 -0.9952423 0.6477714
> df$1
Error: unexpected numeric constant in "df$1"
> df$`1`
[1] -1.2035003 -1.2146266 0.3563335 -0.4372646 -0.9952423
В этом случае также будет работать df [, "1"]. Но обратные галочки работают внутри формул!
> lm(`2`~`1`,data=df)
Call:
lm(formula = `2` ~ `1`, data = df)
Coefficients:
(Intercept) `1`
0.4087 -0.3440
[Изменить] Дирк спрашивает, зачем давать неверные имена? Я не знаю! Но на практике я, конечно, довольно часто сталкиваюсь с этой проблемой. Например, с использованием пакета hashape reshape:
> library(reshape)
> df$z <- c(1,1,2,2,2)
> recast(df,z~.,id.var="z")
Aggregation requires fun.aggregate: length used as default
z (all)
1 1 4
2 2 6
> recast(df,z~.,id.var="z")$(all)
Error: unexpected '(' in "recast(df,z~.,id.var="z")$("
> recast(df,z~.,id.var="z")$`(all)`
Aggregation requires fun.aggregate: length used as default
[1] 4 6
http://www.omegahat.org/RGoogleDocs/
Я обнаружил, что электронные таблицы Google - отличный способ для всех соавторов та же страница. Кроме того, Google Forms позволяет собирать данные от респондентов и без труда записывать их в электронную таблицу Google. Поскольку данные меняются часто и почти никогда не являются окончательными, для R гораздо предпочтительнее читать электронную таблицу Google напрямую, чем футз с загрузкой файлов CSV и их считыванием.
# Get data from google spreadsheet
library(RGoogleDocs)
ps <-readline(prompt="get the password in ")
auth = getGoogleAuth("me@gmail.com", ps, service="wise")
sheets.con <- getGoogleDocsConnection(auth)
ts2=getWorksheets("Data Collection Repos",sheets.con)
names(ts2)
init.consent <-sheetAsMatrix(ts2$Sheet1,header=TRUE, as.data.frame=TRUE, trim=TRUE)
Я не могу вспомнить, какая из следующих команд, кроме одной или двух, требует нескольких секунд.
getGoogleAuth
getGoogleDocsConnection
getWorksheets
Я действительно удивлен, что никто не написал о apply, tapply, lapply и sapply. Общее правило, которое я использую при работе с R, заключается в том, что если у меня есть цикл for, который выполняет обработку данных или моделирование, Я пытаюсь вычленить его и заменить на * применить. Некоторые люди уклоняются от функций * apply, потому что думают, что можно передавать только функции с одним параметром. Ничего не может быть дальше от истины! Подобно передаче функций с параметрами в качестве объектов первого класса в Javascript, вы делаете это в R с анонимными функциями. Например:
> sapply(rnorm(100, 0, 1), round)
[1] 1 1 0 1 1 -1 -2 0 2 2 -2 -1 0 1 -1 0 1 -1 0 -1 0 0 0 0 0
[26] 2 0 -1 -2 0 0 1 -1 1 5 1 -1 0 1 1 1 2 0 -1 1 -1 1 0 -1 1
[51] 2 1 1 -2 -1 0 -1 2 -1 1 -1 1 -1 0 -1 -2 1 1 0 -1 -1 1 1 2 0
[76] 0 0 0 -2 -1 1 1 -2 1 -1 1 1 1 0 0 0 -1 -3 0 -1 0 0 0 1 1
> sapply(rnorm(100, 0, 1), round(x, 2)) # How can we pass a parameter?
Error in match.fun(FUN) : object 'x' not found
# Wrap your function call in an anonymous function to use parameters
> sapply(rnorm(100, 0, 1), function(x) {round(x, 2)})
[1] -0.05 -1.74 -0.09 -1.23 0.69 -1.43 0.76 0.55 0.96 -0.47 -0.81 -0.47
[13] 0.27 0.32 0.47 -1.28 -1.44 -1.93 0.51 -0.82 -0.06 -1.41 1.23 -0.26
[25] 0.22 -0.04 -2.17 0.60 -0.10 -0.92 0.13 2.62 1.03 -1.33 -1.73 -0.08
[37] 0.45 -0.93 0.40 0.05 1.09 -1.23 -0.35 0.62 0.01 -1.08 1.70 -1.27
[49] 0.55 0.60 -1.46 1.08 -1.88 -0.15 0.21 0.06 0.53 -1.16 -2.13 -0.03
[61] 0.33 -1.07 0.98 0.62 -0.01 -0.53 -1.17 -0.28 -0.95 0.71 -0.58 -0.03
[73] -1.47 -0.75 -0.54 0.42 -1.63 0.05 -1.90 0.40 -0.01 0.14 -1.58 1.37
[85] -1.00 -0.90 1.69 -0.11 -2.19 -0.74 1.34 -0.75 -0.51 -0.99 -0.36 -1.63
[97] -0.98 0.61 1.01 0.55
# Note that anonymous functions aren't being called, but being passed.
> function() {print('hello #rstats')}()
function() {print('hello #rstats')}()
> a = function() {print('hello #rstats')}
> a
function() {print('hello #rstats')}
> a()
[1] "hello #rstats"
(Для тех, кто следит за #rstats, я также разместил это там).
Помните, используйте apply, sapply, lapply, tapply и do.call! Воспользуйтесь векторизацией R. Вы никогда не должны подходить к кучу кода R и видеть:
N = 10000
l = numeric()
for (i in seq(1:N)) {
sim <- rnorm(1, 0, 1)
l <- rbind(l, sim)
}
Он не только не векторизован, но и структура массива в R не увеличивается, как в Python (удвоение размера при исчерпании места, IIRC). Таким образом, каждый шаг rbind должен сначала вырасти l настолько, чтобы принять результаты от rbind (), а затем скопировать все содержимое предыдущего l. Ради забавы, попробуйте описанное выше в R. Обратите внимание, сколько времени это займет (вам даже не понадобится Rprof или какая-либо функция синхронизации). Затем попробуйте
N=10000
l <- rnorm(N, 0, 1)
Следующая версия также лучше, чем первая версия:
N = 10000
l = numeric(N)
for (i in seq(1:N)) {
sim <- rnorm(1, 0, 1)
l[i] <- sim
}
Иногда вам нужно привязать
несколько кадров данных. do.call ()
позволит вам это сделать (кто-то должен был объяснить мне это, когда я задал этот вопрос при связывании, поскольку его использование не является очевидным).
foo <- list()
foo[[1]] <- data.frame(a=1:5, b=11:15)
foo[[2]] <- data.frame(a=101:105, b=111:115)
foo[[3]] <- data.frame(a=200:210, b=300:310)
do.call(rbind, foo)
My new favorite thing is the foreach library. It lets you do all of the nice apply things, but with a somewhat easier syntax:
list_powers <- foreach(i = 1:100) %do% {
lp <- x[i]^i
return (lp)
}
The best part is that if you are doing something that actually requires a significant amount of time, you can switch from %do%
to %dopar%
(with the appropriate backend library) to instantly parallelize, even across a cluster. Very slick.
Вы можете назначить значение, возвращаемое из блока if-else.
Вместо, например,
condition <- runif(1) > 0.5
if(condition) x <- 1 else x <- 2
, вы можете сделать
x <- if(condition) 1 else 2
Как это работает именно так глубокая магия.
Я делаю много основных манипуляций с данными, поэтому вот две встроенные функции ( transform , subet) и одна библиотека ( sqldf), которые я использую ежедневно.
sales <- expand.grid(country = c('USA', 'UK', 'FR'),
product = c(1, 2, 3))
sales$revenue <- rnorm(dim(sales)[1], mean=100, sd=10)
> sales
country product revenue
1 USA 1 108.45965
2 UK 1 97.07981
3 FR 1 99.66225
4 USA 2 100.34754
5 UK 2 87.12262
6 FR 2 112.86084
7 USA 3 95.87880
8 UK 3 96.43581
9 FR 3 94.59259
## transform currency to euros
usd2eur <- 1.434
transform(sales, euro = revenue * usd2eur)
>
country product revenue euro
1 USA 1 108.45965 155.5311
2 UK 1 97.07981 139.2125
3 FR 1 99.66225 142.9157
...
subset(sales,
country == 'USA' & product %in% c(1, 2),
select = c('product', 'revenue'))
>
product revenue
1 1 108.4597
4 2 100.3475
Пакет sqldf sqldf предоставляет SQL-интерфейс для R-кадров данных
## recast the previous subset() expression in SQL
sqldf('SELECT product, revenue FROM sales \
WHERE country = "USA" \
AND product IN (1,2)')
>
product revenue
1 1 108.4597
2 2 100.3475
Выполнять агрегацию или GROUP BY
sqldf('select country, sum(revenue) revenue \
FROM sales \
GROUP BY country')
>
country revenue
1 FR 307.1157
2 UK 280.6382
3 USA 304.6860
Для более сложной картографически-документирующей функциональности на кадрах данных, проверьте пакет плир. И если вам захочется вытащить волосы, я рекомендую проверить Манипуляцию данными с помощью R.
.Одна очень полезная функция, которую я часто использую это dput (), который позволяет бросить объект в виде R Code.
# Use the iris data set
R> data(iris)
# dput of a numeric vector
R> dput(iris$Petal.Length)
c(1.4, 1.4, 1.3, 1.5, 1.4, 1.7, 1.4, 1.5, 1.4, 1.5, 1.5, 1.6,
1.4, 1.1, 1.2, 1.5, 1.3, 1.4, 1.7, 1.5, 1.7, 1.5, 1, 1.7, 1.9,
1.6, 1.6, 1.5, 1.4, 1.6, 1.6, 1.5, 1.5, 1.4, 1.5, 1.2, 1.3, 1.4,
1.3, 1.5, 1.3, 1.3, 1.3, 1.6, 1.9, 1.4, 1.6, 1.4, 1.5, 1.4, 4.7,
4.5, 4.9, 4, 4.6, 4.5, 4.7, 3.3, 4.6, 3.9, 3.5, 4.2, 4, 4.7,
3.6, 4.4, 4.5, 4.1, 4.5, 3.9, 4.8, 4, 4.9, 4.7, 4.3, 4.4, 4.8,
5, 4.5, 3.5, 3.8, 3.7, 3.9, 5.1, 4.5, 4.5, 4.7, 4.4, 4.1, 4,
4.4, 4.6, 4, 3.3, 4.2, 4.2, 4.2, 4.3, 3, 4.1, 6, 5.1, 5.9, 5.6,
5.8, 6.6, 4.5, 6.3, 5.8, 6.1, 5.1, 5.3, 5.5, 5, 5.1, 5.3, 5.5,
6.7, 6.9, 5, 5.7, 4.9, 6.7, 4.9, 5.7, 6, 4.8, 4.9, 5.6, 5.8,
6.1, 6.4, 5.6, 5.1, 5.6, 6.1, 5.6, 5.5, 4.8, 5.4, 5.6, 5.1, 5.1,
5.9, 5.7, 5.2, 5, 5.2, 5.4, 5.1)
# dput of a factor levels
R> dput(levels(iris$Species))
c("setosa", "versicolor", "virginica")
Это может быть очень полезно публиковать легко воспроизводимые куски данных, когда вы спрашиваете о помощи, или редактировать или изменить порядок уровней фактора.
Хотя этот вопрос был поднят некоторое время назад, я недавно обнаружил большой трюк на блоге SAS и R для использования команды cut
. Команда используется для разделения данных на категории, и я буду использовать в качестве примера набор данных по радужной оболочке глаза и разделить его на 10 категорий:
> irisSL <- iris$Sepal.Length
> str(irisSL)
num [1:150] 5.1 4.9 4.7 4.6 5 5.4 4.6 5 4.4 4.9 ...
> cut(irisSL, 10)
[1] (5.02,5.38] (4.66,5.02] (4.66,5.02] (4.3,4.66] (4.66,5.02] (5.38,5.74] (4.3,4.66] (4.66,5.02] (4.3,4.66] (4.66,5.02]
[11] (5.38,5.74] (4.66,5.02] (4.66,5.02] (4.3,4.66] (5.74,6.1] (5.38,5.74] (5.38,5.74] (5.02,5.38] (5.38,5.74] (5.02,5.38]
[21] (5.38,5.74] (5.02,5.38] (4.3,4.66] (5.02,5.38] (4.66,5.02] (4.66,5.02] (4.66,5.02] (5.02,5.38] (5.02,5.38] (4.66,5.02]
[31] (4.66,5.02] (5.38,5.74] (5.02,5.38] (5.38,5.74] (4.66,5.02] (4.66,5.02] (5.38,5.74] (4.66,5.02] (4.3,4.66] (5.02,5.38]
[41] (4.66,5.02] (4.3,4.66] (4.3,4.66] (4.66,5.02] (5.02,5.38] (4.66,5.02] (5.02,5.38] (4.3,4.66] (5.02,5.38] (4.66,5.02]
[51] (6.82,7.18] (6.1,6.46] (6.82,7.18] (5.38,5.74] (6.46,6.82] (5.38,5.74] (6.1,6.46] (4.66,5.02] (6.46,6.82] (5.02,5.38]
[61] (4.66,5.02] (5.74,6.1] (5.74,6.1] (5.74,6.1] (5.38,5.74] (6.46,6.82] (5.38,5.74] (5.74,6.1] (6.1,6.46] (5.38,5.74]
[71] (5.74,6.1] (5.74,6.1] (6.1,6.46] (5.74,6.1] (6.1,6.46] (6.46,6.82] (6.46,6.82] (6.46,6.82] (5.74,6.1] (5.38,5.74]
[81] (5.38,5.74] (5.38,5.74] (5.74,6.1] (5.74,6.1] (5.38,5.74] (5.74,6.1] (6.46,6.82] (6.1,6.46] (5.38,5.74] (5.38,5.74]
[91] (5.38,5.74] (5.74,6.1] (5.74,6.1] (4.66,5.02] (5.38,5.74] (5.38,5.74] (5.38,5.74] (6.1,6.46] (5.02,5.38] (5.38,5.74]
[101] (6.1,6.46] (5.74,6.1] (6.82,7.18] (6.1,6.46] (6.46,6.82] (7.54,7.9] (4.66,5.02] (7.18,7.54] (6.46,6.82] (7.18,7.54]
[111] (6.46,6.82] (6.1,6.46] (6.46,6.82] (5.38,5.74] (5.74,6.1] (6.1,6.46] (6.46,6.82] (7.54,7.9] (7.54,7.9] (5.74,6.1]
[121] (6.82,7.18] (5.38,5.74] (7.54,7.9] (6.1,6.46] (6.46,6.82] (7.18,7.54] (6.1,6.46] (5.74,6.1] (6.1,6.46] (7.18,7.54]
[131] (7.18,7.54] (7.54,7.9] (6.1,6.46] (6.1,6.46] (5.74,6.1] (7.54,7.9] (6.1,6.46] (6.1,6.46] (5.74,6.1] (6.82,7.18]
[141] (6.46,6.82] (6.82,7.18] (5.74,6.1] (6.46,6.82] (6.46,6.82] (6.46,6.82] (6.1,6.46] (6.46,6.82] (6.1,6.46] (5.74,6.1]
10 Levels: (4.3,4.66] (4.66,5.02] (5.02,5.38] (5.38,5.74] (5.74,6.1] (6.1,6.46] (6.46,6.82] (6.82,7.18] ... (7.54,7.9]
Функция traceback ()
необходима, когда у вас где-то есть ошибка, и вы не можете ее сразу понять. Он напечатает трассировку стека, что очень полезно, поскольку R по умолчанию не очень подробный.
Затем установка параметров (error = recovery)
позволит вам «войти» в функцию, вызывающую ошибку, и попытаться понять, что именно происходит, как если бы вы полностью контролировали это и могли бы поставить браузер ()
в нем.
Эти три функции действительно могут помочь в отладке вашего кода.
В программировании на R (не в интерактивных сессиях) я использую if (bad.condition) stop("message")
очень много. Каждая функция начинается с нескольких из них, и по мере работы над вычислениями я добавляю и их. Полагаю, я приобрел эту привычку благодаря использованию assert()
в C. Выгода двойная. Во-первых, с такими проверками гораздо быстрее получить рабочий код. Во-вторых, что, вероятно, более важно, гораздо легче работать с существующим кодом, когда вы видите эти проверки на каждом экране вашего редактора. Вам не придется задаваться вопросом, является ли x>0
, или доверять комментарию, утверждающему, что это так... вы будете знать с первого взгляда, что это так.
PS. мой первый пост здесь. Будьте нежны!
Как полный профан в R и новичок в статистике, я люблю unclass()
для печати всех элементов фрейма данных в виде обычного списка.
Это довольно удобно для просмотра всего набора данных за один раз, чтобы быстро просмотреть все потенциальные проблемы.
Для тех, кто пишет C, для вызова из R: . Внутренний (осмотреть (...))
удобен. Например:
> .Internal(inspect(quote(a+2)))
@867dc28 06 LANGSXP g0c0 []
@8436998 01 SYMSXP g1c0 [MARK,gp=0x4000] "+"
@85768b0 01 SYMSXP g1c0 [MARK,NAM(2)] "a"
@8d7bf48 14 REALSXP g0c1 [] (len=1, tl=0) 2
Кажется, я не могу комментировать (возможно, это связано с этим делом о «репутации»)
В любом случае, далее к советам RGoogleDocs выше:
ps <-readline (prompt = " получить пароль в ")
Это не будет работать изнутри Emacs, который я люблю использовать для R, конечно, с ESS.
В Linux вы можете использовать zenity для получения пароля от ввода пользователя, и установите для него скрытие ввода, чтобы в качестве дополнительного преимущества ваш пароль не отображался на экране в виде обычного текста:
mypass <- system ("zenity --entry --hide-text", intern = TRUE)
Как недавний фанат R, я люблю? Function_name и использую его постоянно
-k