守望者计划是一个非官方性质的民间计划,目前项目仍在招募中。本项目诣在为本次ai事件留下记录,为各位使用者提供帮助,为后续想要理解事件,或寻找离开创作者的伙伴们指路,守望过去和将来的类似事件。我们希望能成为桥梁。这里是和我们收获了三名新同伴!ta们是:
欢迎你们!因为项目组人手依然紧缺,现在的统计方式以“粮单收录告别公告+长图留底+评论区询问创作者是否愿意支持项目”这一方式进行。如果创作者后续联系我们表示不想被加入统计,我们才会删除相关记录,否则默认保留相关记录。此处造成各位创作者们的困扰与不便敬请谅解,我们暂时没有逐一针对联系的实力,再度道歉!由于lof官方暂时未对ai训练数据做出公布,我们还将持续观望事件后续,尽可能为各位收集更多信息。此处插播我们对ai作图和写作事件的态度。首先,ai的广泛应用——从大数据统计,语音助理,写作,绘画等各领域观察,已成大势所趋。与之相关的伦理和法律问题层出不穷,我们暂且按下不表。我们认为,平台在本次ai绘画上所有的最大问题,并非“使用ai绘画”本身,而是“训练数据集无授权”。我们不得不稍微有些尖刻的指出,官方持续回避正面回答的态度,本身就说明了问题。但我们对这一情况表示理解,站在官方的角度来看,这确实是个特别特别麻烦的公关。当然,“训练数据集无授权”问题,其实也是目前各ai深度学习模式训练普遍的问题。ai是好工具。各位想必听过各种关于chatgap的新闻(不知道可以去找找),曾经有人利用问chatgap问题写出高分论述。这一行动并不是人人能做到的!它需要你学习如何问ai问题,怎么样问好问题,才能最终获得有效材料。同时,利用专业作图ai作图的个人,在如何建立tag,应用tag的摸索中同样耗费大量心力,有些精美的ai作图,其关键词框定与描述达几千乃至上万词。我们不能说他们是完全没做任何努力的食尸者,这未免对为ai编写优化算法的人和调教ai的人,太不尊重了。当然,ai很厉害。但ai的出品依然需要人来最终修正。就像用chatgap写论述的小哥,他的论述思路,遣词造句,内容订正都是他自己做的;chatgap更像他的高级搜索引擎。而ai出图呢,大多都需要后期ps工作精修。总之,ai还是——目前还是——离不开人的。但是注意,ai的深度学习,无比需要干净的、大量的数据集。这种东西很难找,多数情况下数据提供者(一般是外包业务)选择直接从网上爬取数据,最后的数据大概率是不会完全干净的。但在数据集里偷懒,最后的成果就很可能畸形。此时,chatgap的成果恐怕证明,ai算法已进入专业对专业的赛道。在这个专业赛道之上,一个亿的投资可能都仅仅是入场的门票钱。lof的ai作品,与未来的专业ai相比,毫无竞争能力。介于此,我们在此提出一个小小的意见。或许将此前在ai上的投资尽快收回,而将这部分投资投入作品的审核机制优化、算法推荐优化、发现机制优化、入门过滤机制、流量扶持、分区完善、整肃界面、鼓励冷门区间高质量内容等等之中,或许才能最终留住口碑和用户,保持整体高质量创作。这才是一种真正可持续的发展。让做ai的地方去做ai,做平台的地方就专心做好平台。我们理解,一个大平台不可能不需要赚钱,但是我们认为平台依然要以使用者的信任为根基。导致这样大量的创作和支持者流失已经得不偿失,再度出现类似事件必然导致平台水准整体下滑。或许,正视和直面问题,保持态度真诚,才能得到最优解答。同时,我们同样强烈建议对ai绘画和写作机制不够了解的各位,尽量去读一读相关的科普,好真正去理解ai。这样,我们才能更深刻,更冷静地去认识问题。毕竟我们一直保持过于激烈的态度,其实不利于官方进一步处理。各位试想官方现在就公开说明自己应用了创作者的数据,将会掀起多大波澜,引发多少骂声?大家情绪太激动,只晓得骂ai剽窃和碎尸不好。我们要深刻认识,理性辨析;精确打击,而不是全面攻击。事件已经发生,我们要拿一种坐禅的功夫去安安静静审视问题,解决问题,尽量挽回一些损失,降低事件的创伤。我们需要做长期的监督,长久的理性抗议,这不是情绪能带给我们的。我们不该盲目的去抵制一切ai的应用,何况ai早已进入我们生活的方方面面。我们认为,我们只应该抗议lof平台可能具有的,对创作者数据的不当利用。ai没有错,是滥用的问题。最后,如果我们有能力,我们会继续为大家做ai的科普。
守望者项目的存在,一直在不断证明lof平台的包容力,自我纠错能力和使用者的高素质水平。守望者们期待一切变好。
欢迎你们!因为项目组人手依然紧缺,现在的统计方式以“粮单收录告别公告+长图留底+评论区询问创作者是否愿意支持项目”这一方式进行。如果创作者后续联系我们表示不想被加入统计,我们才会删除相关记录,否则默认保留相关记录。此处造成各位创作者们的困扰与不便敬请谅解,我们暂时没有逐一针对联系的实力,再度道歉!由于lof官方暂时未对ai训练数据做出公布,我们还将持续观望事件后续,尽可能为各位收集更多信息。此处插播我们对ai作图和写作事件的态度。首先,ai的广泛应用——从大数据统计,语音助理,写作,绘画等各领域观察,已成大势所趋。与之相关的伦理和法律问题层出不穷,我们暂且按下不表。我们认为,平台在本次ai绘画上所有的最大问题,并非“使用ai绘画”本身,而是“训练数据集无授权”。我们不得不稍微有些尖刻的指出,官方持续回避正面回答的态度,本身就说明了问题。但我们对这一情况表示理解,站在官方的角度来看,这确实是个特别特别麻烦的公关。当然,“训练数据集无授权”问题,其实也是目前各ai深度学习模式训练普遍的问题。ai是好工具。各位想必听过各种关于chatgap的新闻(不知道可以去找找),曾经有人利用问chatgap问题写出高分论述。这一行动并不是人人能做到的!它需要你学习如何问ai问题,怎么样问好问题,才能最终获得有效材料。同时,利用专业作图ai作图的个人,在如何建立tag,应用tag的摸索中同样耗费大量心力,有些精美的ai作图,其关键词框定与描述达几千乃至上万词。我们不能说他们是完全没做任何努力的食尸者,这未免对为ai编写优化算法的人和调教ai的人,太不尊重了。当然,ai很厉害。但ai的出品依然需要人来最终修正。就像用chatgap写论述的小哥,他的论述思路,遣词造句,内容订正都是他自己做的;chatgap更像他的高级搜索引擎。而ai出图呢,大多都需要后期ps工作精修。总之,ai还是——目前还是——离不开人的。但是注意,ai的深度学习,无比需要干净的、大量的数据集。这种东西很难找,多数情况下数据提供者(一般是外包业务)选择直接从网上爬取数据,最后的数据大概率是不会完全干净的。但在数据集里偷懒,最后的成果就很可能畸形。此时,chatgap的成果恐怕证明,ai算法已进入专业对专业的赛道。在这个专业赛道之上,一个亿的投资可能都仅仅是入场的门票钱。lof的ai作品,与未来的专业ai相比,毫无竞争能力。介于此,我们在此提出一个小小的意见。或许将此前在ai上的投资尽快收回,而将这部分投资投入作品的审核机制优化、算法推荐优化、发现机制优化、入门过滤机制、流量扶持、分区完善、整肃界面、鼓励冷门区间高质量内容等等之中,或许才能最终留住口碑和用户,保持整体高质量创作。这才是一种真正可持续的发展。让做ai的地方去做ai,做平台的地方就专心做好平台。我们理解,一个大平台不可能不需要赚钱,但是我们认为平台依然要以使用者的信任为根基。导致这样大量的创作和支持者流失已经得不偿失,再度出现类似事件必然导致平台水准整体下滑。或许,正视和直面问题,保持态度真诚,才能得到最优解答。同时,我们同样强烈建议对ai绘画和写作机制不够了解的各位,尽量去读一读相关的科普,好真正去理解ai。这样,我们才能更深刻,更冷静地去认识问题。毕竟我们一直保持过于激烈的态度,其实不利于官方进一步处理。各位试想官方现在就公开说明自己应用了创作者的数据,将会掀起多大波澜,引发多少骂声?大家情绪太激动,只晓得骂ai剽窃和碎尸不好。我们要深刻认识,理性辨析;精确打击,而不是全面攻击。事件已经发生,我们要拿一种坐禅的功夫去安安静静审视问题,解决问题,尽量挽回一些损失,降低事件的创伤。我们需要做长期的监督,长久的理性抗议,这不是情绪能带给我们的。我们不该盲目的去抵制一切ai的应用,何况ai早已进入我们生活的方方面面。我们认为,我们只应该抗议lof平台可能具有的,对创作者数据的不当利用。ai没有错,是滥用的问题。最后,如果我们有能力,我们会继续为大家做ai的科普。
守望者项目的存在,一直在不断证明lof平台的包容力,自我纠错能力和使用者的高素质水平。守望者们期待一切变好。