# 上传成功 UPLOADED = 0
# 待处理 PENDING = 1
# 开始转写 START_TRANSCRIPTION = 2
# 开始翻译 START_TRANSLATION = 3
# AI分析 START_AI_ANALYSIS = 4
# 价值判断 START_VALUE_JUDGMENT = 5
# 处理完成 COMPLETED = 6
# 运行失败 FAILED = 7
使用celery构建的定时任务:每当05:00时间执行:
访问startrock数据库(1192.168.100.64 端口:9033 用户名:root 没有密码 数据库名:bsyb)中的表:result_text_info、voice_basic_info,拿到result_text_info表中字段create_time为昨天的数据。这些数据包括:result_text_info表中uuid_voice、car,然后使用uuid_voice去表voice_basic_info中匹配,拿到file_name数据。其中:car中每条数据结构要么是空,要么是:i like you#i want to go to home#i do not konw。create_time就是datatime格式
然后依次遍历拿到的数据,对每条数据使用qwen2.5大模型进行翻译成中文,在翻译的时候注意保持#符号在原文位置不变。
然后再依次遍历拿到的数据,对每条数据进行全文重点摘要、关键词提取(突出事件、主体、人物,尤其关注领域人物等等)、价值判定(价值判定分成两个步骤:步骤一:对car数据进行分类:经济、贸易、能源、科技、地缘政治、其他。步骤二:对car数据对我国影响打分,分数最低0,最高100分,分数越高说明影响越大,并给出您打分的理由)
然后将结果按条写入excel中。格式为:序号-file_name-car-译文-摘要-关键词-价值判定分数-价值判定理由
最后将excel文件自动上传到ftp服务器中的文件夹:每日快报 中。(ftp:192.168.100.188 用户名:root 密码:123)
以上是整个项目的整体逻辑。请根据这个逻辑,帮我设计python项目结构,并编写项目代码。实现以上功能。