很多人觉得R语言只是统计分析的工具,装几个包、跑跑模型就完了。其实,把R当成脚本语言来用,能省下大量重复操作的时间。比如你每周都要处理销售数据,手动打开Excel、筛选区域、算汇总、做图表,一通操作下来半小时没了。其实一段R脚本就能自动完成。
从一个简单例子开始
假设你有一堆CSV格式的销售记录,存放在一个文件夹里,需要合并成一张总表,并计算每个地区的总销售额。手动做很麻烦,但用R写个脚本,点一下就出结果。
library(readr)
library(dplyr)
# 读取目录下所有CSV文件
files <- list.files("sales_data", pattern = "*.csv", full.names = TRUE)
# 逐个读取并合并
all_data <- lapply(files, read_csv) %>% bind_rows()
# 按地区分组求和
summary <- all_data %>%
group_by(region) %>%
summarise(total_sales = sum(amount))
# 输出结果到CSV
write_csv(summary, "output/region_summary.csv")
这段脚本跑一次,几秒就搞定。以后新数据进来,只要放对文件夹,重新运行就行。不用再点开一堆表格复制粘贴。
让脚本更实用的小技巧
可以在脚本开头加个参数,指定数据路径,这样不同项目也能复用。比如:
args <- commandArgs(trailingOnly = TRUE)
data_path <- ifelse(length(args) > 0, args[1], "default_folder")
然后在命令行运行:Rscript process_sales.R new_project_data,脚本就会自动处理新目录下的文件。
还可以结合Windows任务计划程序或macOS的launchd,设置每天早上8点自动运行脚本,起床就能看到最新报表。这种“一次写好,长期受益”的方式,才是真正意义上的电脑优化——不是让电脑跑得更快,而是让你少动手。
别只盯着代码本身
写R脚本的关键不是语法多高级,而是理清楚自己每天在重复做什么。比如导出日志、整理用户反馈、生成周报附件……这些机械劳动都可以尝试用脚本替代。刚开始可能写得慢,但跑顺了之后,别人还在点鼠标的时候,你已经喝上咖啡了。