使用 apache ftp 搭建的文件服务器,目前是用定时任务不停美国服务器的遍历,建个表存储已经存在的文件。
想问一下有没有优化方案,感觉目前的方式不是很优雅
常用的 FTP 都是做数据短期交换,一般做法是 download service 进行数据下载,然后记录文件信息到 db,下载后清空目录的。做到可追溯可查询即可。
自己写个文件夹监控小应用程序就行
写个中间层,流量转发到中间层先解析文件,再转发流量到 ftpserver
inotify-tools 监听文件系统上的文件创建事件
不能做清空目录的操作,如果只做短期数据交换,文件过来后下载到本地,操作流程会不会复杂了。目前文件使用过后我们会进行压缩备份,但是这个操作是延时的,我们系统是需要读取 FTP 号码文件然后进行号码发送,文件过来后,可能会过很久才发送,
FTP 不都是有日志么...
包括传输开始,传输的文件,传输结束,大小等等
你直接读日志好了
看 FTP 服务的日志不就妥了
3 楼说的对啊,自己加个中间层
4 楼+1,shell 写个脚本,用 inotify 递归监控总文件夹,文件创建后调用插入接口把路径传过去