阿里的通义千问,震惊到我了
“百花齐放,百家争鸣”人工智能再掀热潮,近期国产AI大模型竞相发布。继百度、三六零、商汤等科技巨头发布各自大模型后,阿里巴巴“通义千问”大模型4月11日也亮相云峰会。据介绍,阿里达摩院2019年便已启动中文大模型研发。不得不说,这些大厂都是站得高看的远的,稍不留神就会被落下。
阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表示,未来阿里巴巴所有产品都将接入“通义千问”大模型,进行全面改造。据悉,钉钉、天猫精灵将率先接入通义千问测试,评估认证后正式发布新功能。
先给个官网测试地址吧:https://tongyi.aliyun.com/
我是当天就申请了,没过几天,好消息就来了
image.png我们今天来说下讲下通义千文的AI感受
我是通义千问 ,一个专门响应人类指令的大模型image.png首先进来的落地页面和百度的文心一言、ChatGPT等布局不一样,它多了一些聚焦话题模块,让用户可以直接进入该模块得到自己想要的答案。这是其一,我们再往下看有个百宝袋:
image.png这里面是亮点,好不好用先不说,反正挺扎眼的,我们进去彩虹屁专家看是怎么样的一个“专家”
image.png只能呵呵了,感觉很生硬!!!
image.png输入“鱼香肉丝”,回答
鱼香肉丝菜品
所需食材:
-瘦猪肉丝 250克
-青椒 50克
-红椒 50克
-葱 30克
-姜 10克
-大蒜 10克
-盐 适量
-酱油 适量
-料酒 适量
-生抽 适量
-白糖 适量
-香醋 适量
-生姜 适量
-大蒜 适量
-淀粉 适量
-香油 适量
具体步骤:
猪肉洗净切细丝,加入盐、酱油、淀粉搅拌均匀腌制15分钟。青红椒去蒂去籽切细丝,葱姜蒜切末备用。热锅冷油加入葱姜蒜爆香。加入腌制好的肉丝煸炒至变色,加入青红椒丝翻炒。加入生抽、白糖、香醋、盐、料酒、适量清水翻炒均匀。最后滴入香油,撒上葱花即可。完整做法:
猪肉洗净切细丝,加入盐、酱油、淀粉搅拌均匀腌制15分钟。青红椒去蒂去籽切细丝,葱姜蒜切末备用。热锅冷油加入葱姜蒜爆香。加入腌制好的肉丝煸炒至变色,加入青红椒丝翻炒。加入生抽、白糖、香醋、盐、料酒、适量清水翻炒均匀。最后滴入香油,撒上葱花即可。SWOT分析百宝袋中SWOT分析值得去问问,去跟他聊聊
image.png优势:
GPT 可以为个人或企业生成各种文本内容,包括文章、广告、电子邮件、网页等。这种自动化工具可以加速文本生成,减少创作时间,同时可以减少错误率。GPT 可以在语言和文化领域生成高质量的文本,使得文本的语言、文化和主题更加准确。GPT 可以根据个人或企业的需求生成文本,提供个性化的服务,使得客户更容易接受产品或服务。劣势:
在使用 GPT 生成文本时,需要输入相应的信息,否则 GPT 无法生成正确的文本。需要将所有的信息输入到 GPT 中,否则 GPT 将无法为用户生成所需的文本。如果生成的文本与其他人的文本存在很大的相似性,可能会被视为侵权。机会:
随着人工智能技术的不断发展,GPT 将成为一个普及化的工具,使得更多的人可以使用它来生成文本。对于企业来说,使用 GPT 可以提高生产效率和生产力,从而增加收益。由于 GPT 的生成文本准确度高,因此可以提高客户的满意度,从而促进销售。威胁:
由于 GPT 可以快速生成文本,因此可能会对人类的工作造成威胁。使用 GPT 可能会导致人们的创造力和创作能力下降,因为人们可能会将生成文本作为一个机械的过程。如果 GPT 的生成文本可能会被认为是侵权的,那么使用 GPT 可能会导致法律纠纷我们用官方的示例,“在疫情后时代中,传统制造业的机会在哪里”
image.png我们再来看下编码能力这里就不粘贴图片了,我们用对话的形式将编码能力写下来,我们感受下:
Q:scalaspark中如何计算同环比
A:同环比是指在时间范围内,同一组的数值比较,以及环比是指相对于前一个时间的变化。在ScalaSpark中,可以通过`filter()`函数和`map()`函数来实现同环比的计算。假设有一个数据集是按天分区的,其中有一列是日期。现在想要计算相邻两天的同环比,可以按照以下步骤:
1.创建一个时间窗口,按照日期分区。
2.将数据集分成若干个子集,每个子集包含相邻的两天。
3.对每个子集执行上述计算,得到每组的同环比。
示例代码如下:
importorg.apache.spark.sql.functions._
importorg.apache.spark.sql.expressions.Window
importorg.apache.spark.sql._
valdateColumn=Seq("date").toDF("date")
valtimeWindow=dateColumn.withColumn("end_date","date").over(
Window.partitionBy("date").orderBy("date")
)
valdf=spark.createDataFrame(Seq(("2019-01-01"),("2019-01-02"),("2019-01-03"),("2019-01-04"),("2019-01-05"),("2019-01-06"),("2019-01-07"),("2019-01-08"),("2019-01-09"),("2019-01-10"),("2019-01-11"),("2019-01-12"),("2019-01-13"),("2019-01-14"),("2019-01-15"),("2019-01-16"),("2019-01-17"),("2019-01-18"),("2019-01-19"),("2019-01-20"),("2019-01-21"),("2019-01-22"),("2019-01-23"),("2019-01-24"),("2019-01-25"),("2019-01-26"),("2019-01-27"),("2019-01-28"),("2019-01-29"),("2019-01-30"),("2019-01-31")),Seq("id","date"))
valresultDF=df.groupBy(dateColumn,"id").agg(first("date"),avg("value").as("value"))
resultDF.show()
输出结果:
+---+----------------+---------+
|id|date|value|
+---+----------------+---------+
|2019-01-01|2019-01-01|5|
|2019-01-02|2019-01-02|5|
|2019-01-03|2019-01-03|2|
|2019-01-04|2019-01-04|3|
|2019-01-05|2019-01-05|3|
|2019-01-06|2019-01-06|1|
|2019-01-07|2019-01-07|2|
|2019-01-08|2019-01-08|1|
|2019-01-09|2019-01-09|1|
|2019-01-10|2019-01-10|0|
|2019-01-11|2019-01-11|0|
|2019-01-12|2019-01-12|1|
|2019-01-13|2019-01-13|1|
|2019-01-14|2019-01-14|0|
|2019-01-15|2019-01-15|0|
|2019-01-16|2019-01-16|1|
|2019-01-17|2019-01-17|0|
|2019-01-18|2019-01-18|0|
|2019-01-19|2019-01-19|1|
|2019-01-20|2019-01-20|1|
|2019-01-21|2019-01-21|0|
|2019-01-22|2019-01-22|0|
|2019-01-23|2019-01-23|1|
|2019-01-24|2019-01-24|0|
|2019-01-25|2019-01-25|0|
|2019-01-26|2019-01-26|1|
|2019-01-27|2019-01-27|0|
|2019-01-28|2019-01-28|0|
|2019-01-29|2019-01-29|0|
|2019-01-30|2019-01-30|0|
|2019-01-31|2019-01-31|0|
+---+----------------+---------+
发现他并没有计算同环比,接着问:
Q: 并没有计算同环比啊
A: 感谢您指出这个问题。在原来的代码中,我们只计算了相邻两天的差值,没有考虑相邻两天的环比增长。在计算同环比时,需要将每组数据的相邻两天也考虑进去,所以需要加入一个时间窗口来保存每组数据的相邻两天。 修改后的代码如下:
importorg.apache.spark.sql.functions._
importorg.apache.spark.sql.expressions.Window
importorg.apache.spark.sql.types._
valdateColumn=Seq("date").toDF("date")
valtimeWindow=dateColumn.withColumn("end_date","date").over(
Window.partitionBy("date").orderBy("date")
)
valdf=spark.createDataFrame(Seq(("2019-01-01"),("2019-01-02"),("2019-01-03"),("2019-01-04"),("2019-01-05"),("2019-01-06"),("2019-01-07"),("2019-01-08"),("2019-01-09"),("2019-01-10"),("2019-01-11"),("2019-01-12"),("2019-01-13"),("2019-01-14"),("2019-01-15"),("2019-01-16"),("2019-01-17"),("2019-01-18"),("2019-01-19"),("2019-01-20"),("2019-01-21"),("2019-01-22"),("2019-01-23"),("2019-01-24"),("2019-01-25"),("2019-01-26"),("2019-01-27"),("2019-01-28"),("2019-01-29"),("2019-01-30"),("2019-01-31")),Seq("id","date"))
valresultDF=df.groupBy(dateColumn,"id").agg(first("date"),avg("value").as("value"))
validxWindow=Seq("date","end_date").toDF("idx","end_date")
valresultDF2=resultDF.join(idxWindow,"left_id","right_id","date")
resultDF2.show()
在这个代码中,我们在 timeWindow 中新增了一列 idx 表示相邻两天的索引,并将 date 列和 end_date 列进行了索引。然后,我们使用这两个索引进行了 join 操作,以计算同环比。 需要注意的是,由于我们使用的是 date 列作为分区键,所以 end_date 列是按照日期排序的。因此,我们需要在计算同环比之前,先按日期排序每个子集,以保证同环比的值是连续的。
再问下java
Q:java 实现二分法排序
以下是 Java 实现二分查找排序的示例代码:
publicstaticvoidbubbleSort(int[]nums){
intn=nums.length;
for(inti=0;in-1;i++){
for(intj=0;jn-i-1;j++){
if(nums[j]nums[j+1]){
inttemp=nums[j];
nums[j]=nums[j+1];
nums[j+1]=temp;
}
}
}
}
这个实现使用了双重循环,以比较相邻的两个元素,并将较小的元素向后移动一个位置。在每一轮比较中,最大的元素将被保留下来,而最小的元素将被替换为它的下一个元素。因此,最终的有序数组将按升序排列。 同样地,如果需要使用二分查找排序一个数组,可以使用类似的方法来实现。需要注意的是,由于这种排序算法的时间复杂度是 O(n^2),因此在处理大型数据集时,可能需要使用其他算法来优化性能。
总结:总体来说还行,不是那么的让人失望,补充一句,不支持图片,是的
我们今天分享到这里,你也可以搜索微信公众号“1点东西”,会有很多AI资料,感谢点赞,关注。
最近一直在写AIGPT类的东西,都收录在下方AI专栏里,以后也会持续输出。
阅读原文
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设、网站改版、域名注册、主机空间、手机网站建设、网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。 项目经理在线