chiark / gitweb /
new trout from ewx
[irc.git] / commands.py
index eac7bb71b0fc1d3a8eb1c9876ba4fa5c98657f7f..db8ace677d2c1a16ebb519d4fd508cdd8fc12dd3 100644 (file)
@@ -1,5 +1,5 @@
 # Part of Acrobat.
-import string, cPickle, random, urllib, sys, time, re, os
+import string, cPickle, random, urllib, sys, time, re, os, twitter
 from irclib import irc_lower, nm_to_n
 
 # query karma
@@ -36,7 +36,7 @@ def karmadelq(bot, cmd, nick, conn, public, karma):
 # help - provides the URL of the help file
 def helpq(bot, cmd, nick, conn, public):
     bot.automsg(public,nick,
-                "For help see http://www.pick.ucam.org/~matthew/irc/servus.html")
+                "For help see http://www.chiark.greenend.org.uk/~matthewv/irc/servus.html")
 
 
 # query bot status
@@ -307,57 +307,78 @@ def nicetime(tempus):
     tm="%d hours ago"%int(tempus/3600)
   return tm
 
+### class to store URL data
+class UrlLog:
+    "contains meta-data about a URL seen on-channel"
+    def __init__(self,url,nick):
+        self.nick=nick
+        self.url=url
+        self.first=time.time()
+        self.count=1
+        self.lastseen=time.time()
+        self.lastasked=time.time()
+    def recenttime(self):
+        return max(self.lastseen,self.lastasked)
+    def firstmen(self):
+        return nicetime(time.time()-self.first)
+    def urltype(self):
+        z=min(len(urlcomplaints)-1, self.count-1)
+        return urlcomplaints[z]
+        
 urlre = re.compile("(https?://[^ ]+)( |$)")
-urlcomplaints = [" contemporary","n interesting"," fascinating","n overused"," vastly overused"]
+urlcomplaints = ["a contemporary","an interesting","a fascinating","an overused","a vastly overused"]
 
-def urlq(bot, cmd, nick, conn, public):
+### Deal with /msg bot url or ~url in channel
+def urlq(bot, cmd, nick, conn, public,urldb):
   if (not urlre.search(cmd)):
-    bot.automsg(False,nick,"Please use 'url' only with http URLs")
+    bot.automsg(False,nick,"Please use 'url' only with http or https URLs")
     return
 
-  url="".join(cmd.split(" ")[1:])
-
-  url=canonical_url(url)
+  urlstring=urlre.search(cmd).group(1)
+  url=canonical_url(urlstring)
   if (url in urldb):
-    users = urldb[url]
-    complaint="The url %s was mentioned %s by %s"%(url,nicetime(time.time()-users[-1][1]),users[-1][0])
+    T = urldb[url]
+    complaint="That's %s URL that was first mentioned %s by %s" % \
+               (T.urltype(),T.firstmen(),T.nick)
     if (public):
       complaint=complaint+". Furthermore it defeats the point of this command to use it other than via /msg."
+      T.count+=1
     bot.automsg(False,nick,complaint)
+    T.lastasked=time.time()
   else:
     if (public):
       bot.automsg(False,nick,"That URL was unique. There is little point in using !url out loud; please use it via /msg")
     else:
-      conn.privmsg(bot.channel,"%s would like to draw your attention to %s"%(nick,url))
-    urldb[url]=[[nick,time.time()]]
-
-def dourl(bot,conn,nick,command):
+      if urlstring != cmd.split()[1]: #first argument to URL was not the url
+        conn.privmsg(bot.channel,"%s remarks: %s" % (nick," ".join(cmd.split()[1:])))
+      else:
+        conn.privmsg(bot.channel,"(via %s) %s"%(nick," ".join(cmd.split()[1:])))
+      bot.automsg(False,nick,"That URL was unique; I have posted it into IRC")
+    urldb[url]=UrlLog(url,nick)
+
+### Deal with URLs spotted in channel
+def dourl(bot,conn,nick,command,urldb):
   urlstring=urlre.search(command).group(1)
   urlstring=canonical_url(urlstring)
 
   if urlstring in urldb:
     T=urldb[urlstring]
-    uci = len(T)
-    if uci >= len(urlcomplaints):
-      uci = len(urlcomplaints)
-    message="observes a"+urlcomplaints[uci-1]+" URL: mentioned by "
-    if (len(T)>5): 
-      cutoff=len(T)-5
-    else:
-      cutoff=-1
-    for t in range(len(T)-1,cutoff,-1):
-      tempus = time.time()-T[t][1]
-      message += T[t][0]+" ("+nicetime(tempus)+")"
-      if (t!=cutoff+1):
-        message += ", "
-    if (cutoff != -1):
-      message += ", amongst others"
+    message="observes %s URL, first mentioned %s by %s" % \
+             (T.urltype(),T.firstmen(),T.nick)
     conn.action(bot.channel, message)
-    urldb[urlstring]=[[nick,time.time()]]+urldb[urlstring]
+    T.lastseen=time.time()
+    T.count+=1
   else:
-    urldb[urlstring]=[[nick,time.time()]]
+    urldb[urlstring]=UrlLog(urlstring,nick)
 
-# canonicalise BBC URLs
+### Expire old urls
+def urlexpire(urldb,expire):
+    urls=urldb.keys()
+    for u in urls:
+        if time.time() - urldb[u].recenttime() > expire:
+            del urldb[u]
+
+# canonicalise BBC URLs (internal use only)
 def canonical_url(urlstring):
   if (urlstring.find("news.bbc.co.uk") != -1):
     for middle in ("/low/","/mobile/"):
@@ -366,3 +387,32 @@ def canonical_url(urlstring):
         urlstring.replace(middle,"/hi/")
   return urlstring
 
+
+#get tweet text
+def twitterq(bot,cmd,nick,conn,public,twitapi):
+  
+  if (not urlre.search(cmd)):
+    bot.automsg(False,nick,"Please use 'twit' only with http URLs")
+    return
+
+  urlstring = urlre.search(cmd).group(1)
+  if (urlstring.find("twitter.com") !=-1):
+    stringout = getTweet(urlstring,twitapi)
+    try:
+        bot.automsg(public, nick, stringout)
+    except UnicodeEncodeError:
+        bot.automsg(public, nick, "Sorry, that tweet contained non-ASCII characters")
+  
+def getTweet(urlstring,twitapi):
+  parts = string.split(urlstring,'/')
+  tweetID = parts[-1]
+  try:
+    status = twitapi.GetStatus(tweetID)
+    tweeter_screen = status.user.screen_name
+    tweeter_name = status.user.name
+    tweetText = status.text
+    stringout = "tweet by %s (%s): %s" %(tweeter_screen,tweeter_name,tweetText)
+  except twitter.TwitterError:
+    terror = sys.exc_info()
+    stringout = "Twitter error: %s" % terror[1].__str__()
+  return stringout